OpenClaw 集成 GitHub Copilot 指南

OpenClaw 集成 GitHub Copilot 指南

OpenClaw 集成 GitHub Copilot 指南

本文档介绍如何将 GitHub Copilot 作为模型提供商集成到 OpenClaw 中,实现通过 GitHub 账户调用 Copilot 模型能力。

目录


什么是 OpenClaw

OpenClaw 是一个开源的 AI 助手平台,提供自托管的 AI 网关(Gateway)和代理(Agent)能力。它支持多种模型提供商(Anthropic、OpenAI、Google、GitHub Copilot 等),并能通过 Telegram、Discord、WhatsApp、iMessage 等多种渠道进行对话交互。

核心特性:

  • 自托管 AI Gateway,支持多模型调度与故障转移
  • 支持 30+ 种模型提供商
  • 支持插件、技能(Skills)扩展
  • 支持多平台(macOS / Linux / Windows / Docker / Kubernetes)

什么是 GitHub Copilot

GitHub Copilot 是 GitHub 推出的 AI 编程助手,基于用户的 GitHub 账户和订阅计划,提供 GPT-4o、GPT-4.1、Claude 等多种大模型能力。将其接入 OpenClaw 后,可以免费或低成本地使用这些模型来驱动 AI 助手。


前提条件

在开始集成之前,请确保满足以下条件:

条件说明
GitHub 账户需要已订阅 GitHub Copilot(个人版、商业版或企业版均可)
Node.js推荐 Node 24,最低支持 Node 22.14+
交互式终端(TTY)认证步骤需要在可交互的终端中执行,不支持纯脚本/CI 环境
操作系统macOS / Linux / WSL2(推荐)/ Windows 原生

检查 Node.js 版本:

node--version

安装 OpenClaw

macOS / Linux / WSL2

curl-fsSL https://openclaw.ai/install.sh |bash

Windows (PowerShell)

iwr-useb https://openclaw.ai/install.ps1 |iex

通过 npm 安装

npminstall-g openclaw@latest 

通过 pnpm 安装

pnpmadd-g openclaw@latest pnpm approve-builds -g# pnpm 需要显式批准含构建脚本的包

安装完成后运行引导程序

openclaw onboard --install-daemon 

引导程序会帮助你选择模型提供商、配置 API Key,并启动 Gateway,整个过程约 2 分钟。

验证安装

openclaw --version# 确认 CLI 已安装 openclaw doctor # 检查配置是否正常 openclaw gateway status # 确认 Gateway 正在运行(默认监听端口 18789)

两种集成方式

OpenClaw 提供两种方式集成 GitHub Copilot,根据实际使用场景选择:

方式适用场景是否需要 VS Code
内置 github-copilot 提供商大多数场景,最简便不需要
Copilot Proxy 插件已在 VS Code 中运行 Copilot Proxy,或需要通过代理路由需要(需保持运行)

方式一:内置 GitHub Copilot 提供商(推荐)

这是最简单的集成方式,使用 GitHub 的设备授权(Device Flow)获取访问令牌,无需安装 VS Code。

第一步:执行登录命令

可交互的终端中运行(不能在 CI/脚本中执行):

openclaw models auth login-github-copilot 
第二步:完成设备授权

命令执行后,终端会输出类似以下信息:

Visit: https://github.com/login/device Enter code: XXXX-XXXX Waiting for authorization... 
  1. 使用浏览器访问 https://github.com/login/device
  2. 输入终端中显示的一次性验证码
  3. 在 GitHub 页面授权 OpenClaw 访问你的 Copilot
  4. 授权完成后,保持终端开启,等待命令自动完成
注意: 请勿关闭终端,直到命令输出成功提示。
可选参数

指定自定义 Profile ID(适合管理多个 GitHub 账号):

openclaw models auth login-github-copilot --profile-id github-copilot:work 

跳过确认提示(自动接受):

openclaw models auth login-github-copilot --yes

方式二:Copilot Proxy 插件

如果你已经在 VS Code 中安装并运行了 Copilot Proxy 扩展,可以让 OpenClaw 通过该代理的 /v1 端点访问 Copilot 模型。

前提: VS Code 中的 Copilot Proxy 扩展必须处于运行状态,OpenClaw 才能正常调用。
启用插件

在 OpenClaw 配置文件中启用 copilot-proxy 插件:

{ plugins: { "copilot-proxy": { enabled: true, baseUrl: "http://localhost:<代理端口>/v1" // 替换为 Copilot Proxy 实际监听地址 } } } 

设置默认模型

登录成功后,将 GitHub Copilot 提供的模型设置为默认模型:

# 设置 GPT-4o 为主模型 openclaw models set github-copilot/gpt-4o # 或使用 GPT-4.1 openclaw models set github-copilot/gpt-4.1 

查看当前可用模型:

openclaw models list 

查看模型状态和认证信息:

openclaw models status 

配置文件示例

手动编辑配置文件(位于 ~/.openclaw/config.json5):

最简配置

{ agents: { defaults: { model: { primary: "github-copilot/gpt-4o" } } } } 

配置主模型 + 备用模型(故障转移)

{ agents: { defaults: { model: { primary: "github-copilot/gpt-4o", fallbacks: [ "github-copilot/gpt-4.1", "openai/gpt-4o" // 可选:其他提供商作为最终备用 ] } } } } 

指定 Profile ID(多账号场景)

{ agents: { defaults: { model: { primary: "github-copilot/gpt-4o" } } }, auth: { profiles: [ { id: "github-copilot:work", provider: "github-copilot" } ] } } 

配置模型允许列表(限制可用模型)

{ agents: { defaults: { model: { primary: "github-copilot/gpt-4o" }, models: { "github-copilot/gpt-4o": { alias: "Copilot GPT-4o" }, "github-copilot/gpt-4.1": { alias: "Copilot GPT-4.1" } } } } } 

模型管理

常用 CLI 命令速查

# 查看当前模型状态 openclaw models status # 列出所有配置的模型 openclaw models list # 列出所有可用模型(包含完整目录) openclaw models list --all# 切换主模型 openclaw models set github-copilot/gpt-4o # 添加备用模型 openclaw models fallbacks add github-copilot/gpt-4.1 # 查看备用模型列表 openclaw models fallbacks list # 删除备用模型 openclaw models fallbacks remove github-copilot/gpt-4.1 # 添加模型别名 openclaw models aliases add"copilot" github-copilot/gpt-4o 

在对话中切换模型

在 Control UI 或支持的频道中,可以使用斜杠命令临时切换模型:

/model # 打开模型选择器 /model list # 列出可用模型 /model github-copilot/gpt-4o # 切换到指定模型 /model status # 查看当前模型详细状态 

常见问题排查

1. 模型被拒绝访问(“Model rejected”)

原因: 当前 GitHub Copilot 订阅计划不支持该模型。

解决方案:

# 尝试切换到其他 Copilot 模型 openclaw models set github-copilot/gpt-4.1 # 查看订阅计划支持的模型 openclaw models list --provider github-copilot 

2. 登录命令报错"requires interactive TTY"

原因: 在非交互式终端(如 CI 流水线、SSH 无 TTY 会话)中执行了登录命令。

解决方案: 在本机的普通终端窗口中直接执行登录命令,不要通过脚本调用。

3. 命令执行后提示"openclaw: command not found"

解决方案:

# 检查全局包安装路径npm prefix -g# 确认 bin 目录在 PATH 中echo"$PATH"# 若不在 PATH,手动添加(以 zsh 为例)echo'export PATH="$(npm prefix -g)/bin:$PATH"'>> ~/.zshrc source ~/.zshrc 

4. 认证令牌过期

GitHub Copilot 的令牌会定期过期,需要重新登录:

openclaw models auth login-github-copilot 

5. 模型显示"not allowed"错误

原因: 配置了 agents.defaults.models 允许列表,但所选模型不在列表中。

解决方案: 将模型添加到允许列表,或清除允许列表:

// 在配置文件中添加该模型 { agents: { defaults: { models: { "github-copilot/gpt-4o": {} } } } } 

6. 运行诊断检查

openclaw doctor 

参考资料

资源链接
OpenClaw 官方文档docs.openclaw.ai
GitHub Copilot 集成页面docs.openclaw.ai/providers/github-copilot
OpenClaw 安装指南docs.openclaw.ai/install
快速上手docs.openclaw.ai/start/getting-started
模型 CLI 参考docs.openclaw.ai/concepts/models
模型提供商总览docs.openclaw.ai/concepts/model-providers
模型故障转移docs.openclaw.ai/concepts/model-failover
配置参考docs.openclaw.ai/gateway/configuration-reference
OpenClaw GitHub 仓库github.com/openclaw/openclaw

文档生成日期:2026-03-27 | 基于 OpenClaw 官方文档整理

Read more

lora-scripts部署教程:Stable Diffusion LoRA训练全流程,支持小数据50张图起步

lora-scripts部署教程:Stable Diffusion LoRA训练全流程,支持小数据50张图起步 想用AI画出你专属的动漫头像,或者生成特定风格的插画,但网上现成的模型总是不合心意?自己训练一个模型听起来又太复杂,感觉无从下手? 别担心,今天要介绍的这个工具,能让训练专属AI模型变得像搭积木一样简单。它就是 lora-scripts,一个专门为Stable Diffusion等模型设计的LoRA训练工具。你不需要懂复杂的代码,也不用准备海量数据,只要准备好几十张图片,跟着这篇教程,就能亲手“调教”出一个懂你心意的AI画师。 1. 为什么你需要了解lora-scripts? 简单来说,lora-scripts是一个“开箱即用”的模型训练工具。它把训练一个AI模型过程中所有繁琐的步骤——比如准备数据、调整参数、启动训练、导出结果——都打包成了简单的脚本命令。你只需要按顺序执行几个命令,就能完成整个训练流程。 它的核心价值在于降低门槛和提升效率。 * 对新手友好:你不需要理解LoRA(Low-Rank Adaptation)背后的复杂数学原理,也不用自己写一行训

大语言模型能力对比实验:文心一言 vs 豆包

对比了国内两款主流模型——百度的“文心一言”与字节跳动的“豆包”在不同任务场景下的表现。实验共设计了19项任务,涵盖逻辑推理、总结归纳、计算能力、历史知识、创作能力、伦理判断、图像理解等多个维度。以下是完整的实验记录与对比分析。 一、实验概览 实验选择了“文心一言”和“豆包”两款模型,通过纯文本与多模态两类任务进行对比。任务类型包括: * 纯文本任务(1–11题):逻辑推理、总结归纳、计算、历史知识、创作、伦理判断、记忆等。 * 多模态任务(12–19题):Logo设计、文生图、图像识别、表情分析、数学解题等。 二、实验表格 序号 考察能力 题目 回复 评价 1

Whisper语音识别模型:3大核心优势与5个实战应用场景

Whisper语音识别模型:3大核心优势与5个实战应用场景 【免费下载链接】whisper-tiny.en 项目地址: https://ai.gitcode.com/hf_mirrors/openai/whisper-tiny.en 在人工智能技术快速发展的今天,语音识别已经成为人机交互的重要桥梁。OpenAI推出的Whisper语音识别模型凭借其卓越的性能和开源特性,正在重塑语音技术应用格局。这款基于68万小时音频数据训练的系统,不仅实现了高精度的语音转文字功能,更在多个维度展现出突破性进展。 技术架构深度解析 Whisper模型采用编码器-解码器架构,结合Transformer网络实现端到端的语音识别。其独特之处在于多任务学习框架的设计——模型能够同时处理语音识别、语音翻译和语言识别三大核心任务,这种一体化架构大幅提升了模型的实用性和部署效率。 模型参数配置亮点: * 轻量化设计:仅39M参数,适合嵌入式设备和移动端应用 * 高效处理能力:支持长达30秒的音频片段处理 * 多框架支持:提供PyTorch、TensorFlow、Flax等多种深度学习框架版本

1000多万次播放背后的AIGC方法论:从爆款视频《牌子》开始思考

这篇深度分析文章,基于《牌子》(SIGN)这部现象级AIGC短片的全面拆解,构建一套完整的AIGC内容创作方法论。将分章节系统性地展开,涵盖技术解析、创作方法论、产业影响和未来展望等多个维度。 引言:一个内容事件的诞生 2026年初,中国视频平台Bilibili上出现了一条名为《牌子》(SIGN)的7分钟短片。这部由独立创作者使用AI工具制作的奇幻短片,在一周内获得了超过1000万次播放、80多万点赞、30多万投币,被著名导演郭帆转发点赞,在YouTube上引发国际观众的热议,甚至专业影视后期团队都在上班时间逐帧分析其制作技术。 这不是一次简单的"技术展示",而是一个内容事件的诞生——它标志着AIGC(人工智能生成内容)从"实验室玩具"正式迈入"大众审美"的领域。更重要的是,它证明了一件事:在正确的创作方法论指导下,单个创作者借助AI工具,可以产出媲美专业团队的内容。 本文将从《牌子》的逐帧技术解析出发,深入探讨其背后的创作逻辑,提炼出一套可复用的AIGC内容创作方法论,