OpenClaw 集成 GitHub Copilot 指南

OpenClaw 集成 GitHub Copilot 指南

OpenClaw 集成 GitHub Copilot 指南

本文档介绍如何将 GitHub Copilot 作为模型提供商集成到 OpenClaw 中,实现通过 GitHub 账户调用 Copilot 模型能力。

目录


什么是 OpenClaw

OpenClaw 是一个开源的 AI 助手平台,提供自托管的 AI 网关(Gateway)和代理(Agent)能力。它支持多种模型提供商(Anthropic、OpenAI、Google、GitHub Copilot 等),并能通过 Telegram、Discord、WhatsApp、iMessage 等多种渠道进行对话交互。

核心特性:

  • 自托管 AI Gateway,支持多模型调度与故障转移
  • 支持 30+ 种模型提供商
  • 支持插件、技能(Skills)扩展
  • 支持多平台(macOS / Linux / Windows / Docker / Kubernetes)

什么是 GitHub Copilot

GitHub Copilot 是 GitHub 推出的 AI 编程助手,基于用户的 GitHub 账户和订阅计划,提供 GPT-4o、GPT-4.1、Claude 等多种大模型能力。将其接入 OpenClaw 后,可以免费或低成本地使用这些模型来驱动 AI 助手。


前提条件

在开始集成之前,请确保满足以下条件:

条件说明
GitHub 账户需要已订阅 GitHub Copilot(个人版、商业版或企业版均可)
Node.js推荐 Node 24,最低支持 Node 22.14+
交互式终端(TTY)认证步骤需要在可交互的终端中执行,不支持纯脚本/CI 环境
操作系统macOS / Linux / WSL2(推荐)/ Windows 原生

检查 Node.js 版本:

node--version

安装 OpenClaw

macOS / Linux / WSL2

curl-fsSL https://openclaw.ai/install.sh |bash

Windows (PowerShell)

iwr-useb https://openclaw.ai/install.ps1 |iex

通过 npm 安装

npminstall-g openclaw@latest 

通过 pnpm 安装

pnpmadd-g openclaw@latest pnpm approve-builds -g# pnpm 需要显式批准含构建脚本的包

安装完成后运行引导程序

openclaw onboard --install-daemon 

引导程序会帮助你选择模型提供商、配置 API Key,并启动 Gateway,整个过程约 2 分钟。

验证安装

openclaw --version# 确认 CLI 已安装 openclaw doctor # 检查配置是否正常 openclaw gateway status # 确认 Gateway 正在运行(默认监听端口 18789)

两种集成方式

OpenClaw 提供两种方式集成 GitHub Copilot,根据实际使用场景选择:

方式适用场景是否需要 VS Code
内置 github-copilot 提供商大多数场景,最简便不需要
Copilot Proxy 插件已在 VS Code 中运行 Copilot Proxy,或需要通过代理路由需要(需保持运行)

方式一:内置 GitHub Copilot 提供商(推荐)

这是最简单的集成方式,使用 GitHub 的设备授权(Device Flow)获取访问令牌,无需安装 VS Code。

第一步:执行登录命令

可交互的终端中运行(不能在 CI/脚本中执行):

openclaw models auth login-github-copilot 
第二步:完成设备授权

命令执行后,终端会输出类似以下信息:

Visit: https://github.com/login/device Enter code: XXXX-XXXX Waiting for authorization... 
  1. 使用浏览器访问 https://github.com/login/device
  2. 输入终端中显示的一次性验证码
  3. 在 GitHub 页面授权 OpenClaw 访问你的 Copilot
  4. 授权完成后,保持终端开启,等待命令自动完成
注意: 请勿关闭终端,直到命令输出成功提示。
可选参数

指定自定义 Profile ID(适合管理多个 GitHub 账号):

openclaw models auth login-github-copilot --profile-id github-copilot:work 

跳过确认提示(自动接受):

openclaw models auth login-github-copilot --yes

方式二:Copilot Proxy 插件

如果你已经在 VS Code 中安装并运行了 Copilot Proxy 扩展,可以让 OpenClaw 通过该代理的 /v1 端点访问 Copilot 模型。

前提: VS Code 中的 Copilot Proxy 扩展必须处于运行状态,OpenClaw 才能正常调用。
启用插件

在 OpenClaw 配置文件中启用 copilot-proxy 插件:

{ plugins: { "copilot-proxy": { enabled: true, baseUrl: "http://localhost:<代理端口>/v1" // 替换为 Copilot Proxy 实际监听地址 } } } 

设置默认模型

登录成功后,将 GitHub Copilot 提供的模型设置为默认模型:

# 设置 GPT-4o 为主模型 openclaw models set github-copilot/gpt-4o # 或使用 GPT-4.1 openclaw models set github-copilot/gpt-4.1 

查看当前可用模型:

openclaw models list 

查看模型状态和认证信息:

openclaw models status 

配置文件示例

手动编辑配置文件(位于 ~/.openclaw/config.json5):

最简配置

{ agents: { defaults: { model: { primary: "github-copilot/gpt-4o" } } } } 

配置主模型 + 备用模型(故障转移)

{ agents: { defaults: { model: { primary: "github-copilot/gpt-4o", fallbacks: [ "github-copilot/gpt-4.1", "openai/gpt-4o" // 可选:其他提供商作为最终备用 ] } } } } 

指定 Profile ID(多账号场景)

{ agents: { defaults: { model: { primary: "github-copilot/gpt-4o" } } }, auth: { profiles: [ { id: "github-copilot:work", provider: "github-copilot" } ] } } 

配置模型允许列表(限制可用模型)

{ agents: { defaults: { model: { primary: "github-copilot/gpt-4o" }, models: { "github-copilot/gpt-4o": { alias: "Copilot GPT-4o" }, "github-copilot/gpt-4.1": { alias: "Copilot GPT-4.1" } } } } } 

模型管理

常用 CLI 命令速查

# 查看当前模型状态 openclaw models status # 列出所有配置的模型 openclaw models list # 列出所有可用模型(包含完整目录) openclaw models list --all# 切换主模型 openclaw models set github-copilot/gpt-4o # 添加备用模型 openclaw models fallbacks add github-copilot/gpt-4.1 # 查看备用模型列表 openclaw models fallbacks list # 删除备用模型 openclaw models fallbacks remove github-copilot/gpt-4.1 # 添加模型别名 openclaw models aliases add"copilot" github-copilot/gpt-4o 

在对话中切换模型

在 Control UI 或支持的频道中,可以使用斜杠命令临时切换模型:

/model # 打开模型选择器 /model list # 列出可用模型 /model github-copilot/gpt-4o # 切换到指定模型 /model status # 查看当前模型详细状态 

常见问题排查

1. 模型被拒绝访问(“Model rejected”)

原因: 当前 GitHub Copilot 订阅计划不支持该模型。

解决方案:

# 尝试切换到其他 Copilot 模型 openclaw models set github-copilot/gpt-4.1 # 查看订阅计划支持的模型 openclaw models list --provider github-copilot 

2. 登录命令报错"requires interactive TTY"

原因: 在非交互式终端(如 CI 流水线、SSH 无 TTY 会话)中执行了登录命令。

解决方案: 在本机的普通终端窗口中直接执行登录命令,不要通过脚本调用。

3. 命令执行后提示"openclaw: command not found"

解决方案:

# 检查全局包安装路径npm prefix -g# 确认 bin 目录在 PATH 中echo"$PATH"# 若不在 PATH,手动添加(以 zsh 为例)echo'export PATH="$(npm prefix -g)/bin:$PATH"'>> ~/.zshrc source ~/.zshrc 

4. 认证令牌过期

GitHub Copilot 的令牌会定期过期,需要重新登录:

openclaw models auth login-github-copilot 

5. 模型显示"not allowed"错误

原因: 配置了 agents.defaults.models 允许列表,但所选模型不在列表中。

解决方案: 将模型添加到允许列表,或清除允许列表:

// 在配置文件中添加该模型 { agents: { defaults: { models: { "github-copilot/gpt-4o": {} } } } } 

6. 运行诊断检查

openclaw doctor 

参考资料

资源链接
OpenClaw 官方文档docs.openclaw.ai
GitHub Copilot 集成页面docs.openclaw.ai/providers/github-copilot
OpenClaw 安装指南docs.openclaw.ai/install
快速上手docs.openclaw.ai/start/getting-started
模型 CLI 参考docs.openclaw.ai/concepts/models
模型提供商总览docs.openclaw.ai/concepts/model-providers
模型故障转移docs.openclaw.ai/concepts/model-failover
配置参考docs.openclaw.ai/gateway/configuration-reference
OpenClaw GitHub 仓库github.com/openclaw/openclaw

文档生成日期:2026-03-27 | 基于 OpenClaw 官方文档整理

Read more

硕士论文盲审前降AI率:盲审评委到底会不会看AIGC报告?

硕士论文盲审前降AI率:盲审评委到底会不会看AIGC报告? 最近收到不少同学私信问我:"学长,我硕士论文马上要送盲审了,学校说要做AIGC检测,但盲审评委真的会看这个报告吗?"说实话,这个问题我当初也纠结过。今天就把我了解到的情况和大家详细聊聊,希望能帮到正在准备盲审的同学。 盲审流程中AIGC检测处于什么位置? 盲审前的"关卡"越来越多 以前硕士论文盲审,学校主要关注的就是查重率。但从2025年下半年开始,越来越多的高校在盲审前增加了AIGC检测环节。根据我收集到的信息,目前的盲审流程大致是这样的: 环节时间节点负责方是否涉及AI检测论文提交盲审前2-4周研究生院部分学校要求提交检测报告查重检测盲审前1-2周学院/研究生院与AIGC检测同步进行AIGC检测盲审前1-2周学院/研究生院是,多数用知网系统送审盲审开始研究生院统一安排部分学校附带检测报告评审盲审期间(2-4周)外校评委评委可能收到报告 三种常见的学校处理方式 经过调研,我发现不同学校对盲审中AIGC检测的处理方式主要分三种: 第一种:检测不通过直接不送审。 这是最严格的情况。如果AIGC检测率超过

LLaMA-Factory微调多模态大模型Qwen3-VL

LLaMA-Factory微调多模态大模型Qwen3-VL

LLaMA-Factory微调多模态大模型Qwen3-VL 目录 LLaMA-Factory微调多模态大模型Qwen3-VL 1. 显卡驱动 2. 模型微调 3. 模型导出 4. 模型部署:vLLM服务 5. 测试效果 1. 显卡驱动 * 显卡型号:NVIDIA GeForce RTX 3090 24G * 显卡驱动:NVIDIA-SMI 535.171.04             * CUDA: 12.2 ,Driver Version: 535.171.04   微调Qwen3-VL-2B模型,至少需要12G显存 2. 模型微调 项目采用大型语言模型工厂(LLaMA-Factory)对大模型微调,目前可支持Qwen3 / Qwen2.5-VL / Gemma 3 / GLM-4.1V / InternLM

2026 AI编程工具Agent时代终极横评:Cursor vs Claude Code vs Windsurf vs Copilot

2026 AI编程工具Agent时代终极横评:Cursor vs Claude Code vs Windsurf vs Copilot

上一篇AI视频生成后Sora时代:Wan 2.6、Seedance与Kling重塑格局 下一篇2026Q1 AI季报:从模型竞争到系统竞争,Coding→Agent大主线全解析 摘要 2026年,AI编程工具从"代码补全"正式进入"编程Agent"时代。Cursor以8 Agent并行开发领跑体验,Claude Code以SWE-bench 80.8%的Agent能力成为重度用户首选,Windsurf以$15/月的定价提供Cursor级功能,GitHub Copilot以$10/月保持最高性价比入门档。本文基于2026年3月最新实测数据,从七个维度全面对比四款工具,助你找到最适合团队的AI编程助手。 核心结论:单论Agent能力,Claude Code(SWE-bench 80.8%)是当前最强;单论IDE体验和补全质量,Cursor(Supermaven)领先;

【AIGC】Claude Code Rules配置

建议直接使用别人沉淀好的rules,比如:来自 Anthropic 黑客马拉松获胜者的完整 Claude Code 配置集合。 1. Claude Code Rules 配置基础篇 Claude Code的Rules是用于定义代码规范、安全限制、工作流规则的核心配置机制,能让AI遵循项目特定的开发标准。以下是详细配置方法: 一、规则文件基础配置 1. 规则文件位置与命名 * 单一文件规则(简化版):项目根目录的 CLAUDE.md 或用户主目录的 ~/.claude/CLAUDE.md 全局规则(跨项目复用):用户主目录下的 .claude/rules/ 文件夹 ~/.claude/rules/ 项目级规则(优先级最高):项目根目录下的 .claude/rules/ 文件夹,所有 .md 文件会自动加载 project-root/