VSCode扩展工具Copilot MCP使用教程【MCP】

VSCode扩展工具Copilot MCP使用教程【MCP】
在这里插入图片描述


MCP(Model Context Protocol,模型上下文协议) ,2024年11月底,由 Anthropic 推出的一种开放标准,旨在统一大型语言模型(LLM)与外部数据源和工具之间的通信协议。本文章教你使用VSCode扩展工具Copilot MCP快速上手MCP应用!

1. VSCode中安装Copilot MCP

在这里插入图片描述


Copilot MCP是一个适用于 VSCode 的 MCP Client。

2. Copilot MCP使用

安装之后会出现Coplilot授权,并在左侧菜单中出现MCP Server按钮

在这里插入图片描述

3. Add Server

点击Add Server,MCP Server分为两种建立方式,Process和SSE

在这里插入图片描述


以Process为例,输入必要信息:

在这里插入图片描述


其中Server Name是你给Server起的任意名字,需要注意的是Start Command。
这里我的输入为:

npx -y @modelcontextprotocol/server-filesystem /path 

注意path修改为自己的文件路径,并确保你已安装node.js从而可以使用npx命令
这个Command怎么来的呢?
可从来自MCP Server官方社区获得自己想要的Server:

https://github.com/modelcontextprotocol/servers?tab=readme-ov-file
在这里插入图片描述


以Filesystem为例,点进去可查看其调用方式,以NPX为例:

在这里插入图片描述


其要求我们输入npx命令,并附加上文件路径,可以为多个文件路径,显然,Command格式举例如下:

npx -y @modelcontextprotocol/server-filesystem /path 

注意path修改为自己的文件路径,并确保你已安装node.js从而可以使用npx命令
在Start Command中输入以上命令即可。
输入完成后点击 Add Server
成功后列表显示刚刚添加Server,不显示意味着添加失败。

在这里插入图片描述


点开后可查看该Server提供的Tools列表:

在这里插入图片描述

4. 调用Server

准备一个测试文件,我在/path下创建了个mcp_test.txt文件,里面包含一句话:

在这里插入图片描述


之后,在VSCode 右侧Copilot对话框中出入:

@mcp <内容>
在这里插入图片描述

例如:

@mcp 请读取"/root/xxx"下的“mcp_test.txt”中的内容
在这里插入图片描述

发送后得到回应:

在这里插入图片描述

成功!!!

Read more

鸿蒙金融理财全栈项目——风险控制、合规审计、产品创新

鸿蒙金融理财全栈项目——风险控制、合规审计、产品创新

《鸿蒙APP开发从入门到精通》第18篇:鸿蒙金融理财全栈项目——风险控制、合规审计、产品创新 📊🛡️🚀 内容承接与核心价值 这是《鸿蒙APP开发从入门到精通》的第18篇——风险控制、合规审计、产品创新篇,100%承接第17篇的金融理财项目架构,并基于金融场景的风险控制、合规审计、产品创新要求,设计并实现鸿蒙金融理财全栈项目的风险控制、合规审计、产品创新功能。 学习目标: * 掌握鸿蒙金融理财项目的风险控制设计与实现; * 实现风险评估、风险监控、风险预警; * 理解合规审计在金融场景的核心设计与实现; * 实现合规检查、合规审计、合规报告; * 掌握产品创新在金融场景的设计与实现; * 实现产品创新、产品优化、产品推广; * 优化金融理财项目的用户体验(风险控制、合规审计、产品创新)。 学习重点: * 鸿蒙金融理财项目的风险控制设计原则; * 合规审计在金融场景的应用; * 产品创新在金融场景的设计要点。 一、 风险控制基础 🎯 1.1 风险控制定义 风险控制是指对金融理财项目的风险进行识别、评估、监控、

By Ne0inhk

Flutter 三方库 sort_pubspec_dependencies 的鸿蒙化适配指南 - 在鸿蒙系统上构建极致、透明、基于依赖项排序的工业级 pubspec.yaml 指导与工程审计引擎

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 sort_pubspec_dependencies 的鸿蒙化适配指南 - 在鸿蒙系统上构建极致、透明、基于依赖项排序的工业级 pubspec.yaml 指导与工程审计引擎 在鸿蒙(OpenHarmony)系统的工程化研发、多团队协作大型项目、或者是需要对由于由于由于由 pubspec.yaml 臃肿的由于由于由于由于依赖项(Dependencies)与开发依赖(Dev Dependencies)进行由于由于由于直观物理排序(Alphabetical Sorting)以减少由于由于由于由于由于重复添加或版本冲突隐患的场景中,如何实现毫秒级的由于由于。清单由于。由于由由映射?sort_pubspec_dependencies 为开发者提供了一套工业级的、针对 Dart 项目配置文件进行由于由于深度排序治理的方案。本文将深入实战其在鸿蒙项目效能审计层中的应用。 前言 什么是 Sort Pubspec Dependencies?

By Ne0inhk

LangFlow与主流大模型对接教程(支持Llama、ChatGLM、Qwen)

LangFlow与主流大模型对接实践指南 在大语言模型(LLM)技术席卷各行各业的今天,越来越多团队希望快速构建智能问答、内容生成或自动化代理系统。然而,即便拥有强大的模型如Llama、ChatGLM或Qwen,实际落地时仍常被复杂的代码结构、繁琐的调试流程和跨团队协作障碍所困扰。 有没有一种方式,能让非程序员也能参与AI应用设计?能否在几分钟内完成一个RAG系统的原型验证? 答案是肯定的——LangFlow 正是为此而生。 LangFlow 是一个为 LangChain 量身打造的可视化开发工具,它将原本需要数百行Python代码才能实现的语言链路,转化为直观的“拖拽+连线”操作。无论是研究人员想快速测试新思路,还是产品经理要演示智能客服概念,LangFlow都能让这一切变得轻而易举。 它的核心魅力在于:把“编码驱动”的AI开发,变成“流程驱动”的交互式实验。你不再需要逐行写LLMChain、PromptTemplate,而是像搭积木一样组合组件,实时看到每一步输出的变化。 更重要的是,LangFlow 并不局限于某一家模型。它天然支持从 Meta 的 Llama 系列,

By Ne0inhk

Qwen3-32B显存不足?低成本GPU优化部署案例让利用率提升180%

Qwen3-32B显存不足?低成本GPU优化部署案例让利用率提升180% 部署一个320亿参数的大模型,听起来就像要开一艘航空母舰,首先得有个能停靠它的超级港口——也就是一块超大显存的GPU。对于很多开发者来说,这第一步就让人望而却步。Qwen3-32B性能强悍,但动辄需要80GB甚至更多的显存,成本实在太高。 难道高性能就一定要高成本吗?当然不是。今天,我们就来分享一个真实的优化案例:如何通过一系列“组合拳”,在有限的GPU资源上,成功部署并高效运行Qwen3-32B,最终将GPU利用率从捉襟见肘提升到了游刃有余,综合利用率提升超过180%。这套方法,即便你只有一张消费级显卡,也能从中获得启发。 1. 直面挑战:Qwen3-32B的显存“胃口”有多大? 在开始优化之前,我们得先搞清楚“敌人”有多强大。Qwen3-32B作为一个320亿参数的模型,其显存占用主要来自两部分: 1. 推理过程中的激活值和中间状态:这部分取决于你输入的序列长度(Prompt)和生成的序列长度。处理长文本或进行多轮对话时,这部分开销会显著增加,轻松再占用几个GB甚至十几GB。 模型权重:这是大

By Ne0inhk