工具篇-如何在Github Copilot中使用MCP服务?

工具篇-如何在Github Copilot中使用MCP服务?

Model Context Protocol (MCP) 是由 Anthropic 公司于 2024 年 11 月推出的一种开放协议标准,目的在于标准化 LLM 与外部数据源、工具及服务之间的交互方式。MCP 被广泛类比为“AI 领域的 USB-C 接口”。

一、vscode的安装

下载vscodeVisual Studio Code - Code Editing. Redefined安装完成打开

选择copilot,这个是AI助手,帮助你编程 
然后注册登录,可以使用GitHub的账号登录,很多工具都可以通过GitHub帐号登录,所以注册一个GitHub帐号是很有必要的。

二、使用MCP

2.1 准备好MCP

先按这篇文章准备好高德地图的MCP:工具篇-Cherry Studio之MCP使用-ZEEKLOG博客

2.2 在Github Copilot中配置 MCP服务 

第一步,Preferences => Settings => 搜索 mcp

把高德的MCP添加进去,其他的MCP类似:

当我在聊天框里启动服务的时候发现mcp-server-time无法启动,于是我就把它删除了,变成这个样子:

三、使用MCP

我们给它一个任务:帮我用MCP,规划一个深圳一日游的路线
开始工作了,可以看到它去调用了我们刚刚添加的MCP,Continue,继续

 

可以看到调用了很多MCP的工具

 

最终给出的结果如下,你们看效果如何:

根据获取的信息,我为您规划了一个合理的深圳一日游路线: 上午 9:00-12:00:深圳世界之窗 地址:南山区深南大道9037号 世界之窗是一个缩小版的世界知名建筑和景点的主题公园,可以在这里看到埃菲尔铁塔、泰姬陵等世界著名景观的微缩版本。 中午 12:00-16:00:深圳欢乐谷 位置:距离世界之窗约1.4公里 交通:可以乘坐M486路公交车(约10分钟) 深圳欢乐谷是一个现代化的主题公园,有刺激的过山车等游乐设施。 傍晚 16:00-晚上:深圳湾公园 位置:从欢乐谷到深圳湾公园约4.7公里 交通建议: 乘坐地铁2号线到科苑站 换乘地铁13号线到后海站 步行约15分钟到达深圳湾公园 深圳湾公园是欣赏日落的绝佳地点,可以看到深圳湾大桥和香港的景色。 交通建议: 全程建议使用深圳通交通卡,可以乘坐地铁和公交 各景点之间有便利的公交和地铁连接 如果觉得疲惫,也可以选择打车 时间安排提示: 建议早上9点开始行程 在世界之窗游玩约3小时 欢乐谷游玩约4小时 深圳湾公园可以选择在傍晚时分到达,欣赏日落景色 其他建议: 建议携带充足的水和零食 准备防晒用品和舒适的步行鞋 记得带上相机记录精彩时刻 建议提前查看天气预报,选择天气较好的日子出行 需要了解具体某个景点的更多信息或详细路线指引,我可以为您进一步查询。

Read more

LLaMAFactory、ModelScope 大模型微调实战(下)

LLaMAFactory、ModelScope 大模型微调实战(下)

一、前言 上次简单介绍了下 LLaMAFactory、ModelScope的微调,今天再来总结下如何部署已经微调好的大模型。 直通车→→→ https://blog.ZEEKLOG.net/tadexinnian/article/details/159154443 本次演示基于魔搭社区(https://www.modelscope.cn/my/mynotebook) 二、将模型转换为gguf 2.1 克隆llama.cpp 并安装环境依赖 -- 进入根目录 cd /mnt/workspace -- 需要用 llama.cpp 仓库的 convert_hf_to_gguf.py 脚本来转换 git clone https://github.com/

2025 嵌入式 AI IDE 全面对比:Trae、Copilot、Windsurf、Cursor 谁最值得个人开发者入手?

文章目录 * 2025 嵌入式 AI IDE 全面对比:Trae、Copilot、Windsurf、Cursor 谁最值得个人开发者入手? * 一、先给结论(个人开发者视角) * 二、2025 年 9 月最新价格与免费额度 * 三、横向体验对比(2025-11) * 1. 模型与响应 * 2. 项目理解力 * 3. 隐私与离线能力 * 四、怎么选?一句话总结 * 五、官方链接(清晰明了) * 六、结语:AI IDE 2025 的趋势 * 七、AI IDE 的底层工作原理:编辑器为什么突然变聪明了? * 1. 解析层:把你的项目拆得比你自己还清楚 * 2. 索引层:

Qwen3.5-4B 微调实战:LLaMA-Factory 打造医疗AI助手

Qwen3.5-4B 微调实战:LLaMA-Factory 打造医疗AI助手

最近在帮一个医疗创业团队做技术支持,他们想把通用大模型改造成能回答专业医疗问题的智能助手。今天就把整个过程整理出来,希望对有类似需求的朋友有所帮助。 核心工具链:LLaMA-Factory + Qwen3.5-4B + 医疗问答数据集 Qwen3.5 是阿里最新发布的千问系列模型,4B 参数量刚好卡在"效果够用 + 显存友好"的甜蜜点;LLaMA-Factory 则是目前开源社区最成熟的微调框架,上手简单,坑也相对少。 准备工作 先说硬件要求。4B 模型用 LoRA 微调的话,一张 12GB 显存的显卡就够了(比如 RTX 4070)。如果手头只有 8GB 显存的卡,可以上 QLoRA 量化方案,牺牲一点精度换显存空间。 微调方式 4B 模型显存需求 推荐显卡 LoRA (16-bit) ~10-12 GB