工具篇-如何在Github Copilot中使用MCP服务?

工具篇-如何在Github Copilot中使用MCP服务?

Model Context Protocol (MCP) 是由 Anthropic 公司于 2024 年 11 月推出的一种开放协议标准,目的在于标准化 LLM 与外部数据源、工具及服务之间的交互方式。MCP 被广泛类比为“AI 领域的 USB-C 接口”。

一、vscode的安装

下载vscodeVisual Studio Code - Code Editing. Redefined安装完成打开

选择copilot,这个是AI助手,帮助你编程 
然后注册登录,可以使用GitHub的账号登录,很多工具都可以通过GitHub帐号登录,所以注册一个GitHub帐号是很有必要的。

二、使用MCP

2.1 准备好MCP

先按这篇文章准备好高德地图的MCP:工具篇-Cherry Studio之MCP使用-ZEEKLOG博客

2.2 在Github Copilot中配置 MCP服务 

第一步,Preferences => Settings => 搜索 mcp

把高德的MCP添加进去,其他的MCP类似:

当我在聊天框里启动服务的时候发现mcp-server-time无法启动,于是我就把它删除了,变成这个样子:

三、使用MCP

我们给它一个任务:帮我用MCP,规划一个深圳一日游的路线
开始工作了,可以看到它去调用了我们刚刚添加的MCP,Continue,继续

 

可以看到调用了很多MCP的工具

 

最终给出的结果如下,你们看效果如何:

根据获取的信息,我为您规划了一个合理的深圳一日游路线: 上午 9:00-12:00:深圳世界之窗 地址:南山区深南大道9037号 世界之窗是一个缩小版的世界知名建筑和景点的主题公园,可以在这里看到埃菲尔铁塔、泰姬陵等世界著名景观的微缩版本。 中午 12:00-16:00:深圳欢乐谷 位置:距离世界之窗约1.4公里 交通:可以乘坐M486路公交车(约10分钟) 深圳欢乐谷是一个现代化的主题公园,有刺激的过山车等游乐设施。 傍晚 16:00-晚上:深圳湾公园 位置:从欢乐谷到深圳湾公园约4.7公里 交通建议: 乘坐地铁2号线到科苑站 换乘地铁13号线到后海站 步行约15分钟到达深圳湾公园 深圳湾公园是欣赏日落的绝佳地点,可以看到深圳湾大桥和香港的景色。 交通建议: 全程建议使用深圳通交通卡,可以乘坐地铁和公交 各景点之间有便利的公交和地铁连接 如果觉得疲惫,也可以选择打车 时间安排提示: 建议早上9点开始行程 在世界之窗游玩约3小时 欢乐谷游玩约4小时 深圳湾公园可以选择在傍晚时分到达,欣赏日落景色 其他建议: 建议携带充足的水和零食 准备防晒用品和舒适的步行鞋 记得带上相机记录精彩时刻 建议提前查看天气预报,选择天气较好的日子出行 需要了解具体某个景点的更多信息或详细路线指引,我可以为您进一步查询。

Read more

Windows 使用 Codex 一直“正在思考”?一招解决 AI 工具代理问题(附一键切换脚本)

📚 目录 一、问题背景:Codex 一直“正在思考”却没有回答 二、第一步:查看本机代理端口 三、第二步:测试代理是否可用 四、第三步:给 Codex App 配置代理 五、让 Codex 代理配置生效 六、验证代理是否生效 七、如何取消代理配置 八、代理配置是否会影响国内软件 九、开发者推荐的代理配置方式 十、完整流程总结 一、问题背景 最近在 Windows 上使用 Codex 时遇到了一个很奇怪的问题: 输入问题后,界面一直显示: 正在思考 但是 没有任何回答。 最开始以为是: * Codex Bug * API Key

医疗AI中的马尔科夫链深度应用与Python实现(2026年版)

医疗AI中的马尔科夫链深度应用与Python实现(2026年版)

核心应用场景 马尔科夫模型在医疗健康领域的应用核心在于其处理时序与状态转移的能力,尤其适用于以下几类具有明确阶段性的临床与管理问题: 1. 疾病进展建模:量化慢性病(如糖尿病、心血管疾病、慢性肾病)在不同临床分期之间的转移风险,为早期干预提供依据。 2. 治疗决策优化:在考虑治疗效果、副作用、成本及患者偏好的多维度下,模拟不同治疗策略的长期结局,辅助制定个性化方案。 3. 生存分析与预后预测:动态评估患者的生存概率或特定终点事件(如复发、再入院)发生风险,随时间更新预测。 4. 医疗资源需求预测:基于患者群体的状态流模型,预测未来不同科室(如ICU、康复病房)的床位、设备及人力需求。 实战示例:构建糖尿病进展预测模型 以下是一个基于模拟数据的糖尿病进展马尔科夫模型构建框架,展示了从数据到模拟的核心流程。 import numpy as np

【OpenClaw:本地模型】16、OpenClaw + Ollama集成——私有化部署LLM,零成本运行AI智能体

【OpenClaw:本地模型】16、OpenClaw + Ollama集成——私有化部署LLM,零成本运行AI智能体

零成本运行AI智能体:OpenClaw+Ollama本地私有化部署完全指南 告别API账单,让AI真正属于你自己——数据隐私+零Token成本+离线可用 引言:为什么需要本地模型? 在OpenClaw的生态中,模型是AI的“大脑”。无论是GPT-4还是Claude,云端大模型虽然强大,但存在三个无法回避的问题: 1. 成本居高不下:一个中等规模的团队,每月API费用轻松超过$500 2. 隐私风险:敏感代码、商业文档、个人数据必须上传到厂商服务器 3. 网络依赖:断网环境AI直接“罢工” OpenClaw + Ollama的组合正是为解决这些问题而生。Ollama作为轻量级本地大模型管理工具,能将Llama、Qwen等开源模型部署在你的电脑上,让OpenClaw彻底摆脱云端依赖,实现本地推理、数据私有化、零Token成本的全闭环体验 。 本地部署模式 用户指令 OpenClaw网关 本地Ollama Llama/Qwen 返回结果 零成本 数据留在本地 云端部署模式 用户指令