Midjourney MCP 集成指南

在当今的人工智能发展中,MCP(模型上下文协议)由 Anthropic 推出,为 AI 模型(如 Claude、GPT 等)提供了通过标准化接口调用外部工具的能力。借助 AceData Cloud 提供的 Midjourney MCP 服务器,您可以在 Claude Desktop、VS Code、Cursor 等 AI 客户端中直接生成和编辑 AI 图像。

功能概述

Midjourney MCP 服务器提供以下核心功能:

  • 图像生成(Imagine) — 从文本提示生成高质量图像
  • 图像编辑 — 对生成的图像进行本地修改
  • 图像转换 — 放大、缩小和移动现有图像
  • 图像融合(Blend) — 将多张图像合并为一张新图像
  • 参考图像生成 — 使用参考图像指导生成
  • 图像描述(Describe) — 根据图像生成文本描述
  • 提示翻译 — 将中文提示翻译为英文
  • 种子检索 — 获取图像的种子值以便复现
  • 视频生成 — 根据图像生成动态视频
  • 任务查询 — 监控生成进度并获取结果

环境准备

在使用之前,您需要获取一个 AceData Cloud API Token:

  1. 注册或登录 AceData Cloud 平台
  2. 前往 Midjourney Imagine API 页面
  3. 点击“获取”以获得 API Token(首次申请者可获得免费积分)

安装配置

方法一:pip 安装(推荐)

pip install mcp-midjourney 

方法二:从源代码安装

git clone https://github.com/AceDataCloud/MidjourneyMCP.git cd MidjourneyMCP pip install -e . 

安装完成后,您可以使用 mcp-midjourney 命令启动服务。

在 Claude Desktop 中使用

编辑 Claude Desktop 配置文件:

  • macOS: ~/Library/Application Support/Claude/claude_desktop_config.json
  • Windows: %APPDATA%\Claude\claude_desktop_config.json

添加以下配置:

{ "mcpServers": { "midjourney": { "command": "mcp-midjourney", "env": { "ACEDATACLOUD_API_TOKEN": "Your API Token" } } } } 

如果使用 uvx(无需提前安装包):

{ "mcpServers": { "midjourney": { "command": "uvx", "args": ["mcp-midjourney"], "env": { "ACEDATACLOUD_API_TOKEN": "Your API Token" } } } } 

保存配置后,重启 Claude Desktop,以便在对话中使用与 Midjourney 相关的工具。

在 VS Code / Cursor 中使用

在项目根目录下创建一个 .vscode/mcp.json 文件:

{ "servers": { "midjourney": { "command": "mcp-midjourney", "env": { "ACEDATACLOUD_API_TOKEN": "Your API Token" } } } } 

或者使用 uvx

{ "servers": { "midjourney": { "command": "uvx", "args": ["mcp-midjourney"], "env": { "ACEDATACLOUD_API_TOKEN": "Your API Token" } } } } 

可用工具列表

工具名称描述
midjourney_imagine从文本提示生成图像
midjourney_edit编辑现有图像的局部区域
midjourney_transform放大、缩小和移动现有图像
midjourney_blend将多张图像合并为一张
midjourney_with_reference使用参考图像生成图像
midjourney_describe根据图像生成文本描述
midjourney_translate将提示翻译为英文
midjourney_get_seed检索图像的种子值
midjourney_generate_video根据图像生成视频
midjourney_extend_video扩展现有视频
midjourney_get_task查询单个任务的状态
midjourney_get_tasks_batch批量查询任务状态

使用示例

配置完成后,您可以在 AI 客户端中使用自然语言直接调用这些功能,例如:

  • “帮我生成一个赛博朋克风格的城市夜景”
  • “将这张图像的背景改为海边”
  • “将这四张图像融合成一张”
  • “描述这张图像的内容”
  • “从这张图像做一个视频”
  • “放大这张图像的第二个变体”

更多信息

总结来说,使用 Midjourney MCP 服务器可以极大地提升您在 AI 图像生成和编辑方面的工作效率。通过简单的配置,您就能在多个流行的 AI 客户端中享受到这些强大的功能。

标签:#Midjourney #MCP #AceDataCloud #AI图像生成 #技术教程

Read more

AI赋能专利翻译,八月瓜科技“妙算翻译大模型”亮相国际论坛

AI赋能专利翻译,八月瓜科技“妙算翻译大模型”亮相国际论坛

当前,国家高度重视人工智能与知识产权融合发展,《新一代人工智能发展规划》明确提出“推动人工智能在知识产权检索、分析、翻译等领域的深度应用,提升知识产权服务效率与质量”,《“十四五”国家知识产权保护和运用规划》也强调“加强知识产权信息化、智能化基础设施建设,推动专利信息跨语言互通”。 顺应这一政策导向,专利领域对专业化翻译的需求愈发迫切。八月瓜科技“妙算翻译大模型”立足需求,凭借深厚的技术积累与精准的场景适配,成为破解行业痛点、助力跨境创新的核心力量。 国际论坛亮相获认可,产品实力彰显初心 日前,妙算翻译大模型凭借在专利翻译领域的突出实力与创新成果,亮相东盟+中日韩(10+3)人工智能产业发展论坛,成为论坛上聚焦知识产权服务智能化的亮点成果,获得了行业专家、参会企业及相关机构的高度关注与广泛认可。此次论坛亮相,不仅是对妙算翻译大模型技术实力与应用价值的权威肯定,更彰显了其在推动专利翻译智能化、打破跨国创新语言壁垒方面的重要作用,为其进一步拓展市场、服务更多科技创新主体奠定了坚实基础。 能获得行业广泛认可,核心源于产品本身的专业定位与硬核实力。妙算翻译大模型在语言

TagSpaces标签系统深度解析:打造个人知识管理神器

TagSpaces标签系统深度解析:打造个人知识管理神器 【免费下载链接】tagspacesTagSpaces is an offline, open source, document manager with tagging support 项目地址: https://gitcode.com/gh_mirrors/ta/tagspaces TagSpaces是一款功能强大的开源文档管理工具,通过其独特的标签系统帮助用户高效组织和管理个人知识库。无论你是学生、研究者还是内容创作者,这款软件都能让你的文件管理变得井井有条!✨ 🔍 什么是TagSpaces? TagSpaces是一个离线的、开源的文档管理器,支持强大的标签功能。它能够帮助你为文件添加自定义标签,实现智能分类和快速检索,让你的知识管理变得更加轻松高效。 🏷️ 强大的标签管理系统 TagSpaces的标签系统是其核心亮点。你可以为每个文件添加多个标签,比如"工作"、"重要"、"待处理"等,然后通过标签快速筛选和查找所需文件。 图:

CopilotForXcode插件开发完全指南:从零构建智能编程助手

CopilotForXcode插件开发完全指南:从零构建智能编程助手 【免费下载链接】CopilotForXcodeThe missing GitHub Copilot, Codeium and ChatGPT Xcode Source Editor Extension 项目地址: https://gitcode.com/gh_mirrors/co/CopilotForXcode 想要为Xcode打造专属AI助手?CopilotForXcode项目提供了完整的Xcode AI插件开发框架,让你能够轻松集成GitHub Copilot、Codeium和ChatGPT等主流AI服务。本文将从项目架构、功能模块到实战技巧,带你全面掌握Xcode插件开发的核心要点。🚀 项目架构深度解析:分层设计理念 核心层:AI服务统一调度 CopilotForXcode采用服务工厂模式来管理多个AI提供商,实现无缝切换: * GitHub Copilot服务:提供代码补全和建议功能 * Codeium服务:支持多语言代码智能生成 * OpenAI服务:集成ChatGPT的自然语言处理能

老码农和你一起学AI系列:LLaMA衍生模型

老码农和你一起学AI系列:LLaMA衍生模型

LLaMA衍生模型指的是基于Meta发布的LLaMA基础模型,通过微调、优化或扩展而产生的各类变体模型。就像LLaMA是一个强大的“通用大脑”,而衍生模型则是针对不同语言、不同任务、不同应用场景进行“专业培训”后的“专家”。根据衍生方式的不同,可以分为两大类:LLaMA衍生模型、官方演进版本 一、官方演进版本 LLaMA系列本身就在持续演进,每一代都是前一代的“官方衍生版”: 版本核心升级技术亮点LLaMA 1开源奠基13B参数超越GPT-3,验证“小模型+大数据”路线LLaMA 2可商用、GQA上下文翻倍至4K,引入分组查询注意力,70B版本逼近GPT-3.5LLaMA 315T数据、128K上下文405B旗舰版性能比肩GPT-4,代码占比提升至25%LLaMA 4MoE稀疏架构、多模态17B激活参数达400B总参数效果,原生支持图像/视频理解,1000万上下文窗口 二、社区微调衍生模型 Alpaca(斯坦福):LLaMA衍生模型的“鼻祖”。斯坦福团队用52K条指令数据对7B LLaMA进行微调,仅花费不到600美元就训练出媲美GPT-3.5的对话模型。