工具篇-如何在Github Copilot中使用MCP服务?

工具篇-如何在Github Copilot中使用MCP服务?

Model Context Protocol (MCP) 是由 Anthropic 公司于 2024 年 11 月推出的一种开放协议标准,目的在于标准化 LLM 与外部数据源、工具及服务之间的交互方式。MCP 被广泛类比为“AI 领域的 USB-C 接口”。

一、vscode的安装

下载vscodeVisual Studio Code - Code Editing. Redefined安装完成打开

选择copilot,这个是AI助手,帮助你编程 
然后注册登录,可以使用GitHub的账号登录,很多工具都可以通过GitHub帐号登录,所以注册一个GitHub帐号是很有必要的。

二、使用MCP

2.1 准备好MCP

先按这篇文章准备好高德地图的MCP:工具篇-Cherry Studio之MCP使用-ZEEKLOG博客

2.2 在Github Copilot中配置 MCP服务 

第一步,Preferences => Settings => 搜索 mcp

把高德的MCP添加进去,其他的MCP类似:

当我在聊天框里启动服务的时候发现mcp-server-time无法启动,于是我就把它删除了,变成这个样子:

三、使用MCP

我们给它一个任务:帮我用MCP,规划一个深圳一日游的路线
开始工作了,可以看到它去调用了我们刚刚添加的MCP,Continue,继续

 

可以看到调用了很多MCP的工具

 

最终给出的结果如下,你们看效果如何:

根据获取的信息,我为您规划了一个合理的深圳一日游路线: 上午 9:00-12:00:深圳世界之窗 地址:南山区深南大道9037号 世界之窗是一个缩小版的世界知名建筑和景点的主题公园,可以在这里看到埃菲尔铁塔、泰姬陵等世界著名景观的微缩版本。 中午 12:00-16:00:深圳欢乐谷 位置:距离世界之窗约1.4公里 交通:可以乘坐M486路公交车(约10分钟) 深圳欢乐谷是一个现代化的主题公园,有刺激的过山车等游乐设施。 傍晚 16:00-晚上:深圳湾公园 位置:从欢乐谷到深圳湾公园约4.7公里 交通建议: 乘坐地铁2号线到科苑站 换乘地铁13号线到后海站 步行约15分钟到达深圳湾公园 深圳湾公园是欣赏日落的绝佳地点,可以看到深圳湾大桥和香港的景色。 交通建议: 全程建议使用深圳通交通卡,可以乘坐地铁和公交 各景点之间有便利的公交和地铁连接 如果觉得疲惫,也可以选择打车 时间安排提示: 建议早上9点开始行程 在世界之窗游玩约3小时 欢乐谷游玩约4小时 深圳湾公园可以选择在傍晚时分到达,欣赏日落景色 其他建议: 建议携带充足的水和零食 准备防晒用品和舒适的步行鞋 记得带上相机记录精彩时刻 建议提前查看天气预报,选择天气较好的日子出行 需要了解具体某个景点的更多信息或详细路线指引,我可以为您进一步查询。

Read more

OpenClaw 集成 GitHub Copilot 指南

OpenClaw 集成 GitHub Copilot 指南

OpenClaw 集成 GitHub Copilot 指南 本文档介绍如何将 GitHub Copilot 作为模型提供商集成到 OpenClaw 中,实现通过 GitHub 账户调用 Copilot 模型能力。 目录 * 什么是 OpenClaw * 什么是 GitHub Copilot * 前提条件 * 安装 OpenClaw * 两种集成方式 * 方式一:内置 GitHub Copilot 提供商(推荐) * 方式二:Copilot Proxy 插件 * 设置默认模型 * 配置文件示例 * 模型管理 * 常见问题排查 * 参考资料 什么是 OpenClaw OpenClaw 是一个开源的 AI 助手平台,提供自托管的 AI 网关(

SD-PPP终极使用指南:快速打通Photoshop与AI绘画的完整教程

SD-PPP终极使用指南:快速打通Photoshop与AI绘画的完整教程 【免费下载链接】sd-pppGetting/sending picture from/to Photoshop in ComfyUI or SD 项目地址: https://gitcode.com/gh_mirrors/sd/sd-ppp SD-PPP(Photoshop Picture Portal)是一款革命性的开源工具,专门为想要将专业图像编辑与AI绘画能力相结合的创意工作者设计。通过这款强大的插件,你可以在熟悉的Photoshop环境中直接调用Stable Diffusion模型,实现真正的无缝创作体验。 🚀 一键安装方法 自动安装(推荐新手) 下载项目中的ccx文件,双击即可通过Adobe Creative Cloud自动完成整个安装过程,无需任何技术操作。 手动安装步骤 1. 将ccx文件扩展名改为zip格式 2. 解压到Photoshop的Plug-ins插件目录 3. 重启Photoshop即可在扩展面板中找到SD-PPP 开发者模式安装 如果你需要进行定制开发,可以通

Pycharm中Github Copilot插件安装与配置全攻略(2023最新版)

PyCharm中GitHub Copilot:从安装到实战的深度配置指南 如果你是一位Python开发者,最近可能已经被各种关于AI编程助手的讨论所包围。GitHub Copilot,这个由GitHub和OpenAI联手打造的“结对编程”伙伴,已经不再是科技新闻里的概念,而是实实在在地进入了我们的开发工作流。特别是在PyCharm这样的专业IDE中,Copilot的集成能带来怎样的化学反应?是效率的倍增,还是全新的编码体验?这篇文章,我将从一个深度使用者的角度,带你走完从零安装到高效实战的全过程,并分享一些官方文档里不会告诉你的配置技巧和实战心得。 1. 环境准备与账号激活:迈出第一步 在开始安装插件之前,我们需要确保两件事:一个可用的GitHub Copilot订阅,以及一个正确版本的PyCharm IDE。很多人第一步就卡在了这里。 首先,关于订阅。GitHub Copilot提供个人和商业两种订阅计划。对于个人开发者,尤其是学生和开源项目维护者,GitHub有相应的优惠甚至免费政策。你需要一个GitHub账号,并前往 GitHub Copilot 官方页面 进行注册和订

Windows 11 配置 CUDA 版 llama.cpp 并实现系统全局调用(GGUF 模型本地快速聊天)

Windows 11 配置 CUDA 版 llama.cpp 并实现系统全局调用(GGUF 模型本地快速聊天)

Windows 11 配置 CUDA 版 llama.cpp 并实现系统全局调用(GGUF 模型本地快速聊天) 前言 在本地快速部署大模型进行离线聊天,llama.cpp 是轻量化、高性能的首选工具,尤其是 CUDA 版本能充分利用 NVIDIA 显卡的算力,大幅提升模型推理速度。本文将详细记录在 Windows 11 系统中,从环境准备、CUDA 版 llama.cpp 配置,到实现系统全局调用、快速运行 GGUF 格式模型的完整步骤,全程基于实际操作验证,适配 RTX 3090 等 NVIDIA 显卡,新手也能轻松上手。 https://github.com/ggml-org/llama.cpp