OpenClaw 集成 GitHub Copilot 指南

OpenClaw 集成 GitHub Copilot 指南

OpenClaw 集成 GitHub Copilot 指南

本文档介绍如何将 GitHub Copilot 作为模型提供商集成到 OpenClaw 中,实现通过 GitHub 账户调用 Copilot 模型能力。

目录


什么是 OpenClaw

OpenClaw 是一个开源的 AI 助手平台,提供自托管的 AI 网关(Gateway)和代理(Agent)能力。它支持多种模型提供商(Anthropic、OpenAI、Google、GitHub Copilot 等),并能通过 Telegram、Discord、WhatsApp、iMessage 等多种渠道进行对话交互。

核心特性:

  • 自托管 AI Gateway,支持多模型调度与故障转移
  • 支持 30+ 种模型提供商
  • 支持插件、技能(Skills)扩展
  • 支持多平台(macOS / Linux / Windows / Docker / Kubernetes)

什么是 GitHub Copilot

GitHub Copilot 是 GitHub 推出的 AI 编程助手,基于用户的 GitHub 账户和订阅计划,提供 GPT-4o、GPT-4.1、Claude 等多种大模型能力。将其接入 OpenClaw 后,可以免费或低成本地使用这些模型来驱动 AI 助手。


前提条件

在开始集成之前,请确保满足以下条件:

条件说明
GitHub 账户需要已订阅 GitHub Copilot(个人版、商业版或企业版均可)
Node.js推荐 Node 24,最低支持 Node 22.14+
交互式终端(TTY)认证步骤需要在可交互的终端中执行,不支持纯脚本/CI 环境
操作系统macOS / Linux / WSL2(推荐)/ Windows 原生

检查 Node.js 版本:

node--version

安装 OpenClaw

macOS / Linux / WSL2

curl-fsSL https://openclaw.ai/install.sh |bash

Windows (PowerShell)

iwr-useb https://openclaw.ai/install.ps1 |iex

通过 npm 安装

npminstall-g openclaw@latest 

通过 pnpm 安装

pnpmadd-g openclaw@latest pnpm approve-builds -g# pnpm 需要显式批准含构建脚本的包

安装完成后运行引导程序

openclaw onboard --install-daemon 

引导程序会帮助你选择模型提供商、配置 API Key,并启动 Gateway,整个过程约 2 分钟。

验证安装

openclaw --version# 确认 CLI 已安装 openclaw doctor # 检查配置是否正常 openclaw gateway status # 确认 Gateway 正在运行(默认监听端口 18789)

两种集成方式

OpenClaw 提供两种方式集成 GitHub Copilot,根据实际使用场景选择:

方式适用场景是否需要 VS Code
内置 github-copilot 提供商大多数场景,最简便不需要
Copilot Proxy 插件已在 VS Code 中运行 Copilot Proxy,或需要通过代理路由需要(需保持运行)

方式一:内置 GitHub Copilot 提供商(推荐)

这是最简单的集成方式,使用 GitHub 的设备授权(Device Flow)获取访问令牌,无需安装 VS Code。

第一步:执行登录命令

可交互的终端中运行(不能在 CI/脚本中执行):

openclaw models auth login-github-copilot 
第二步:完成设备授权

命令执行后,终端会输出类似以下信息:

Visit: https://github.com/login/device Enter code: XXXX-XXXX Waiting for authorization... 
  1. 使用浏览器访问 https://github.com/login/device
  2. 输入终端中显示的一次性验证码
  3. 在 GitHub 页面授权 OpenClaw 访问你的 Copilot
  4. 授权完成后,保持终端开启,等待命令自动完成
注意: 请勿关闭终端,直到命令输出成功提示。
可选参数

指定自定义 Profile ID(适合管理多个 GitHub 账号):

openclaw models auth login-github-copilot --profile-id github-copilot:work 

跳过确认提示(自动接受):

openclaw models auth login-github-copilot --yes

方式二:Copilot Proxy 插件

如果你已经在 VS Code 中安装并运行了 Copilot Proxy 扩展,可以让 OpenClaw 通过该代理的 /v1 端点访问 Copilot 模型。

前提: VS Code 中的 Copilot Proxy 扩展必须处于运行状态,OpenClaw 才能正常调用。
启用插件

在 OpenClaw 配置文件中启用 copilot-proxy 插件:

{ plugins: { "copilot-proxy": { enabled: true, baseUrl: "http://localhost:<代理端口>/v1" // 替换为 Copilot Proxy 实际监听地址 } } } 

设置默认模型

登录成功后,将 GitHub Copilot 提供的模型设置为默认模型:

# 设置 GPT-4o 为主模型 openclaw models set github-copilot/gpt-4o # 或使用 GPT-4.1 openclaw models set github-copilot/gpt-4.1 

查看当前可用模型:

openclaw models list 

查看模型状态和认证信息:

openclaw models status 

配置文件示例

手动编辑配置文件(位于 ~/.openclaw/config.json5):

最简配置

{ agents: { defaults: { model: { primary: "github-copilot/gpt-4o" } } } } 

配置主模型 + 备用模型(故障转移)

{ agents: { defaults: { model: { primary: "github-copilot/gpt-4o", fallbacks: [ "github-copilot/gpt-4.1", "openai/gpt-4o" // 可选:其他提供商作为最终备用 ] } } } } 

指定 Profile ID(多账号场景)

{ agents: { defaults: { model: { primary: "github-copilot/gpt-4o" } } }, auth: { profiles: [ { id: "github-copilot:work", provider: "github-copilot" } ] } } 

配置模型允许列表(限制可用模型)

{ agents: { defaults: { model: { primary: "github-copilot/gpt-4o" }, models: { "github-copilot/gpt-4o": { alias: "Copilot GPT-4o" }, "github-copilot/gpt-4.1": { alias: "Copilot GPT-4.1" } } } } } 

模型管理

常用 CLI 命令速查

# 查看当前模型状态 openclaw models status # 列出所有配置的模型 openclaw models list # 列出所有可用模型(包含完整目录) openclaw models list --all# 切换主模型 openclaw models set github-copilot/gpt-4o # 添加备用模型 openclaw models fallbacks add github-copilot/gpt-4.1 # 查看备用模型列表 openclaw models fallbacks list # 删除备用模型 openclaw models fallbacks remove github-copilot/gpt-4.1 # 添加模型别名 openclaw models aliases add"copilot" github-copilot/gpt-4o 

在对话中切换模型

在 Control UI 或支持的频道中,可以使用斜杠命令临时切换模型:

/model # 打开模型选择器 /model list # 列出可用模型 /model github-copilot/gpt-4o # 切换到指定模型 /model status # 查看当前模型详细状态 

常见问题排查

1. 模型被拒绝访问(“Model rejected”)

原因: 当前 GitHub Copilot 订阅计划不支持该模型。

解决方案:

# 尝试切换到其他 Copilot 模型 openclaw models set github-copilot/gpt-4.1 # 查看订阅计划支持的模型 openclaw models list --provider github-copilot 

2. 登录命令报错"requires interactive TTY"

原因: 在非交互式终端(如 CI 流水线、SSH 无 TTY 会话)中执行了登录命令。

解决方案: 在本机的普通终端窗口中直接执行登录命令,不要通过脚本调用。

3. 命令执行后提示"openclaw: command not found"

解决方案:

# 检查全局包安装路径npm prefix -g# 确认 bin 目录在 PATH 中echo"$PATH"# 若不在 PATH,手动添加(以 zsh 为例)echo'export PATH="$(npm prefix -g)/bin:$PATH"'>> ~/.zshrc source ~/.zshrc 

4. 认证令牌过期

GitHub Copilot 的令牌会定期过期,需要重新登录:

openclaw models auth login-github-copilot 

5. 模型显示"not allowed"错误

原因: 配置了 agents.defaults.models 允许列表,但所选模型不在列表中。

解决方案: 将模型添加到允许列表,或清除允许列表:

// 在配置文件中添加该模型 { agents: { defaults: { models: { "github-copilot/gpt-4o": {} } } } } 

6. 运行诊断检查

openclaw doctor 

参考资料

资源链接
OpenClaw 官方文档docs.openclaw.ai
GitHub Copilot 集成页面docs.openclaw.ai/providers/github-copilot
OpenClaw 安装指南docs.openclaw.ai/install
快速上手docs.openclaw.ai/start/getting-started
模型 CLI 参考docs.openclaw.ai/concepts/models
模型提供商总览docs.openclaw.ai/concepts/model-providers
模型故障转移docs.openclaw.ai/concepts/model-failover
配置参考docs.openclaw.ai/gateway/configuration-reference
OpenClaw GitHub 仓库github.com/openclaw/openclaw

文档生成日期:2026-03-27 | 基于 OpenClaw 官方文档整理

Read more

OpenClaw漏洞预警:如何给AI代理加上“记录仪”?

OpenClaw漏洞预警:如何给AI代理加上“记录仪”?

近日,工信部网络安全威胁和漏洞信息共享平台、国家互联网应急中心连续发布风险提示:开源AI智能体OpenClaw因默认安全配置脆弱、不当配置等问题存在较高安全风险。 当AI代理被赋予系统级权限,每一次“幻觉”或攻击都可能酿成数据浩劫 而每一次操作在操作系统中留下的痕迹,正是追溯这些风险的关键线索。移动云云日志可为移动云云主机提供命令级、文件级全量日志采集,搭配智能关键词告警与日志长期存储,让云主机上的每一行指令都有迹可循,为AI应用构建日志可追溯的安全防线。 四大高危风险,不容忽视 OpenClaw作为开源AI智能体框架,在提升自动化能力的同时,其默认配置存在的安全漏洞可能被恶意利用,导致企业核心数据面临严重威胁。 “AI智能体的安全风险不在于AI本身,而在于我们能否看清AI在系统层面的每一个动作。看不见的风险才是真正的风险。” 而移动云云日志,就是要让这些“看不见”的风险,变得“看得见”。 四大核心能力,构建AI安全防线 全量行为采集,不留死角 支持主流操作系统(CentOS、Ubuntu、WindowsServer等),可采集Shell命令历史、文

保姆级教程:从零搭建AI系统权限控制系统

保姆级教程:从零搭建AI系统权限控制系统

保姆级教程:从零搭建AI系统权限控制系统 手把手教你,如何在3小时内搭建完整的AI权限安全架构,避免Meta式的数据“裸奔”事故 前言:为什么要学这个? 2026年3月22日,Meta AI发生重大数据泄露事故——敏感数据“全员可见”2小时。如果你也正在开发AI项目,这种事故也可能发生在你身上。 本教程将带你从零开始,一步步搭建一个完整的、可实战的AI权限控制系统。无论你是个人开发者、小团队,还是大型AI项目,都能直接应用。 预计完成时间: 3小时 所需技能: 基础Python、Linux命令行、Git 第一阶段:准备工作(15分钟) 第1步:环境准备 # 1. 安装Python和相关依赖 pip install casbin flask sqlalchemy redis # 2. 安装数据库(推荐PostgreSQL) sudo apt-get install postgresql

人工智能:自然语言处理在医疗领域的应用与实战

人工智能:自然语言处理在医疗领域的应用与实战

人工智能:自然语言处理在医疗领域的应用与实战 学习目标 💡 理解自然语言处理(NLP)在医疗领域的应用场景和重要性 💡 掌握医疗领域NLP应用的核心技术(如电子病历分析、医学文本分类、智能问答) 💡 学会使用前沿模型(如BERT、GPT-3)进行医疗文本分析 💡 理解医疗领域的特殊挑战(如数据隐私、多语言处理、专业术语) 💡 通过实战项目,开发一个电子病历分析应用 重点内容 * 医疗领域NLP应用的主要场景 * 核心技术(电子病历分析、医学文本分类、智能问答) * 前沿模型(BERT、GPT-3)在医疗领域的使用 * 医疗领域的特殊挑战 * 实战项目:电子病历分析应用开发 一、医疗领域NLP应用的主要场景 1.1 电子病历分析 1.1.1 电子病历分析的基本概念 电子病历分析是对电子病历中的文本内容进行分析和处理的过程。在医疗领域,电子病历分析的主要应用场景包括: * 病历摘要:自动生成病历摘要(如“患者基本信息”、“病情描述”

AIGC浪潮下,风靡全球的Mcp到底是什么?一文讲懂,技术小白都知道!!

AIGC浪潮下,风靡全球的Mcp到底是什么?一文讲懂,技术小白都知道!!

个人主页-爱因斯晨 文章专栏-AIGC   长大好多烦恼,好愁! 目录   前言 初步了解 Mcp到底是个啥? 发展 理论基础 核心组件 使用逻辑 于传统API不同之处 模型推荐   前言 上年这个时候,刚拿到录取通知书。哥哥教我用ai智能体,其实就是向我炫技。当时我问他,为什么不能直接给我生成图表,直接给我生成多好,省得我再去复制了。他说,其实很简单,只要做个接口协议什么的就行,只是目前国内没人做。当时说的很高深,我也听不懂。没想到年底,这个功能就实现内测了。在某种程度上,我也算是预言了哈哈。 初步了解 Mcp到底是个啥? Mcp,全称 Model Context Protocol,翻译过来是模型上下文协议。你不用管这高大上的名字,简单说,它就是和大 AI 模型聊天时,一种把相关信息整理好、按规矩传给 AI 的方式。