MCP 工具速成:npx vs. uvx 全流程安装指南

MCP 工具速成:npx vs. uvx 全流程安装指南

在现代 AI 开发中,Model Context Protocol(MCP)允许通过外部进程扩展模型能力,而 npx(Node.js 生态)和 uvx(Python 生态)则是两种即装即用的客户端工具,帮助你快速下载并运行 MCP 服务器或工具包,无需全局安装。本文将从原理和对比入手,提供面向 Windows、macOS、Linux 的详细安装、验证及使用示例,确保你能在本地或 CI/CD 流程中无缝集成 MCP 服务器。

1. 工具简介

1.1 npx(Node.js/npm)

npx 是 npm CLI(≥v5.2.0)自带的命令,可在不全局安装的情况下,临时下载并执行 npm 包中的可执行文件。例如:

npx @modelcontextprotocol/server-example 

会下载并运行 @modelcontextprotocol/server-example 包,而不会在系统中留下全局依赖(https://docs.npmjs.com/cli/v8/commands/npx)。该功能简化了快速试用和 CI 环境中一次性命令的执行流程(https://docs.npmjs.com/cli/v10/commands)。

1.2 uvx(Python/pipx 或 pip)

uvx 最初是 uv 项目的别名,用于在隔离环境中临时安装并运行 Python 包提供的命令行工具,类似于 pipx run。例如:

uvx pycowsay 'hello world!'

会在数十毫秒内下载并执行 pycowsay,命令结束后环境可选保留或销毁,大幅减少依赖管理开销(https://github.com/astral-sh/uv)。

2. 安装前准备

  • 网络访问:确保能访问 npm registry(registry.npmjs.org)和 PyPI(pypi.org)。
  • 权限:在 Windows 下使用 PowerShell(管理员身份)或启用执行策略 RemoteSigned
  • 已有环境
    • Node.js ≥v16(包含 npm 和 npx)
    • Python ≥3.10(支持 pipxpip 安装)

3. 安装 npx

3.1 安装 Node.js

  1. 下载 LTS 安装包
    前往 Node.js 官网 下载并安装 LTS 版(推荐 v18 或更高)。

验证安装

node --version # 应输出 v16+ npm --version # 应输出 v7+ npx --version # 应输出 v7+,npm ≥5.2.0 即自带 npx

若缺少 npx,可手动安装:

npminstall -g npx ```:contentReference[oaicite:4]{index=4}

3.2 全局配置(可选)

  • 增加命令白名单(在某些 IDE/CI 中需要)
    在 MCP 客户端配置文件(如 Chainlit 的 config.toml)中,将 npx 加入 allowed_executables 列表(https://docs.npmjs.com/cli/v8/commands/npx)。

更换镜像源(国内用户常用)

npm config set registry https://registry.npmmirror.com/ 

4. 安装 uvx / uvenv

4.1 使用 pipx(推荐)

迁移环境
若已安装旧版,执行:

uvenv self migrate 

将原 uvx 环境和命令一键移至 uvenv(https://github.com/robinvandernoord/uvenv)。

安装 uvx(或 uvenv

pipx install uvx # 安装旧版别名 pipx install uvenv # 安装新版迁移工具

安装 pipx

python3 -m pip install --user pipx python3 -m pipx ensurepath 

4.2 使用 pip(简易)

pip install uvx # 安装旧版(仅 Python x86_64/aarch64 支持 v2.0) # 或 pip install uvenv # 安装新版

注意:uvx v2.0 仅在 Linux x86_64/aarch64 平台通过 PyPI 发布,其它平台请留用 1.x 或源码编译(https://pypi.org/project/uvx/1.0.2/)。

4.3 可选:Shell 集成

uvx setup # 为 Bash/Zsh 自动添加命令补全及环境变量

(同理适用于 uvenv)(https://pypi.org/project/uvx/)。

5. 安装验证

工具验证命令预期输出
npxnpx --version版本号 ≥7.0.0
uvxuvx --version版本号(显示 v<1.x 或提示已迁移至 uvenv)
uvenvuvenv --version版本号 ≥3.0
# 示例(macOS/Linux) $ npx --version 8.19.2 $ uvx --version 1.0.2 $ uvenv --version 3.1.0 

6. 使用示例

6.1 运行 MCP 服务器

# JavaScript 版(通过 npx) npx @modelcontextprotocol/server-chat # Python 版(通过 uvx/uvenv) uvx modelcontextprotocol-server-chat # 或 uvenv modelcontextprotocol-server-chat 

两者将在本地启动一个 MCP 服务器进程,监听标准 I/O,用于与客户端(如 VS Code Copilot Agent、Chainlit)通信。

6.2 临时执行任意工具

# 安装并运行 eslint npx eslint .# 安装并运行 pyflakes uvx pyflakes your_script.py 

7. 常见问题

  • 命令未找到:确认对应工具已加入 PATH,重启终端或手动设置环境变量。
  • 依赖冲突:使用 pipx 可实现完全隔离,避免全局包干扰。
  • 性能考量uv/uvenv 在多包批量安装场景下比 pipx 更快,但功能侧重点不同,可根据需求选用([GitHub][8])。

通过以上步骤,你已掌握在各平台上安装、验证并使用 npxuvx/uvenv 的全流程,助力在 MCP 框架下快速集成和扩展 AI 模型的功能。

Read more

43-dify案例分享-MCP-Server让工作流秒变第三方可调用服务

43-dify案例分享-MCP-Server让工作流秒变第三方可调用服务

1.前言 之前我们为大家介绍过MCP SSE插件,它能够支持MCP-server在Dify平台上的调用,从而帮助Dify与第三方平台提供的MCP-server进行无缝对接。有些小伙伴提出了疑问:既然Dify可以通过MCP SSE插件调用其他平台的MCP-server,那么Dify的工作流或Chatflow是否也能发布为MCP-server,供其他支持MCP client的工具使用呢?今天,我们将为大家介绍一款Dify插件——mcp-server,它能够实现这一功能,即将Dify的工作流或Chatflow发布为MCP-server,供其他第三方工具调用。 插件名字叫做MCP-server,我们在dify插件市场可以找到这个工具 Mcp-server 是一个由 Dify 社区贡献的 Extension 类型插件。安装后,你可以把任何 Dify 应用转变成符合 MCP 标准的 Server Endpoint,供外部 MCP 客户端直接访问。它的主要功能包括: * **暴露为 MCP 工具:**将 Dify 应用抽象为单一 MCP 工具,供外部 MCP 客户端(如

By Ne0inhk
【MCP】详细了解MCP协议:和function call的区别何在?如何使用MCP?

【MCP】详细了解MCP协议:和function call的区别何在?如何使用MCP?

本文介绍了MCP大模型上下文协议的的概念,并对比了MCP协议和function call的区别,同时用python sdk为例介绍了mcp的使用方式。 1. 什么是MCP? 官网:https://modelcontextprotocol.io/introduction 2025年,Anthropic提出了MCP协议。MCP全称为Model Context Protocol,翻译过来是大模型上下文协议。这个协议的主要为AI大模型和外部工具(比如让AI去查询信息,或者让AI操作本地文件)之间的交互提供了一个统一的处理协议。我们常用的USB TypeC接口(USB-C)统一了USB接口的样式,MCP协议就好比AI大模型中的USB-C,统一了大模型与工具的对接方式。 MCP协议采用了C/S架构,也就是服务端、客户端架构,能支持在客户端设备上调用远程Server提供的服务,同时也支持stdio流式传输模式,也就是在客户端本地启动mcp服务端。只需要在配置文件中新增MCP服务端,就能用上这个MCP服务器提供的各种工具,大大提高了大模型使用外部工具的便捷性。 MCP是开源协议,能让所有A

By Ne0inhk
【大模型系列篇】大模型基建工程:基于 FastAPI 自动构建 SSE MCP 服务器

【大模型系列篇】大模型基建工程:基于 FastAPI 自动构建 SSE MCP 服务器

今天我们将使用FastAPI来构建 MCP 服务器,Anthropic 推出的这个MCP 协议,目的是让 AI 代理和你的应用程序之间的对话变得更顺畅、更清晰。FastAPI 基于 Starlette 和 Uvicorn,采用异步编程模型,可轻松处理高并发请求,尤其适合 MCP 场景下大模型与外部系统的实时交互需求,其性能接近 Node.js 和 Go,在数据库查询、文件操作等 I/O 密集型任务中表现卓越。 开始今天的正题前,我们来回顾下相关的知识内容: 《高性能Python Web服务部署架构解析》、《使用Python开发MCP Server及Inspector工具调试》、《构建智能体MCP客户端:完成大模型与MCP服务端能力集成与最小闭环验证》   FastAPI基础知识 安装依赖 pip install uvicorn, fastapi FastAPI服务代码示例  from fastapi import FastAPI app

By Ne0inhk
超详细图文教程:用vscode+copilot(代理模式)便捷使用mcp+一个范例:用自然语言进行3d建模

超详细图文教程:用vscode+copilot(代理模式)便捷使用mcp+一个范例:用自然语言进行3d建模

在vscode使用claude mcp吧! 在vscode更新到最新版本(注意,这是前提)后,内置的copilot可以使用mcp了!!! 关于mcp(Model Context Protocol 模型上下文协议),可以参考我的上一篇文章: MCP个人理解+示例+集成管理+在python中调用示例,给AI大模型装上双手-ZEEKLOG博客 以下是使用教程: 1.点击左下角的齿轮状设置按钮,点击设置 2.在输入面板输入chat.agent.enabled,勾上勾选框 3.点击Ctrl+shift+P,输入reload,点击重新加载窗口,刷新窗口 4.打开copilot后,在右下角将模式改为代理即可。 5.点击工具按钮,开始安装mcp 先去github找到自己想要添加的mcp服务,以blender MCP为例,打开https://github.com/ahujasid/blender-mcp,可以在readme文档里看到详细的安装过程。可以看到,

By Ne0inhk