OpenClaw 实现小红书自动化发文:操作指南

OpenClaw 实现小红书自动化发文:操作指南

前言

  • 小红书自动化神器:xiaohongshu-mcp,让AI一键帮你发笔记、搜内容、写评论,日更50篇不封号!
  • MCP for 小红书 | 用Claude/Cursor/OpenClaw一句话自动运营小红书,9.7k stars开源项目。
  • AI时代的数字员工:xiaohongshu-mcp + 大模型 = 你的小红书24小时自动内容工厂。

没有部署openclaw的也可以参考这一篇文章:本地部署中文OpenClaw 飞书机器人部署指南


一、安装与配置步骤:

1、文件介绍

直接从 GitHub Releases 下载对应平台的二进制文件:

主程序(MCP 服务):

  • macOS Apple Silicon: xiaohongshu-mcp-darwin-arm64
  • macOS Intel: xiaohongshu-mcp-darwin-amd64
  • Windows x64: xiaohongshu-mcp-windows-amd64.exe
  • Linux x64: xiaohongshu-mcp-linux-amd64

登录工具:

  • macOS Apple Silicon: xiaohongshu-login-darwin-arm64
  • macOS Intel: xiaohongshu-login-darwin-amd64
  • Windows x64: xiaohongshu-login-windows-amd64.exe
  • Linux x64: xiaohongshu-login-linux-amd64

每个压缩包包含:

  • xiaohongshu-mcp-*: MCP 服务主程序
  • xiaohongshu-login-*: 登录工具

由于 OpenClaw 目前不原生支持 MCP,官方推荐通过 MCPorter 来调用 MCP 服务。

💡 提示: MCPorter 并非调用 MCP 的最佳方案,使用过程中可能出现一些兼容性问题,请知悉。

2、安装与配置步骤

  • 下载对应安装包,并解压到一个固定文件夹中,比如D:\xiaohongshu-mcp\
1.解压 xiaohongshu-mcp-windows-amd64.zip 2. 运行登录工具 ./xiaohongshu-login-darwin-arm64 3. 启动 MCP 服务 ./xiaohongshu-mcp-darwin-arm64

  • 打开命令提示符(CMD)
  • 进入目录:cd D:\xiaohongshu-mcp
  • 然后执行:
  • xiaohongshu-login-windows-amd64.exe
  • 程序会自动打开 Chrome 浏览器(或者提示你选择浏览器),用小红书 App 扫码登录。
  • 登录成功后会自动把 cookie 保存到本地当前目录。

  • 启动 MCP 服务:
  • 在同一个命令窗口执行:
  • xiaohongshu-mcp-windows-amd64.exe
  • 看到类似 “Server running at http://localhost:18060” 的提示就启动成功了,默认端口 18060,保持这个窗口不要关。

  • OpenClaw 目前不原生支持 MCP,官方推荐用 MCPorter 作为中间层(虽然不是最完美方案,但兼容性目前还不错)。在 OpenClaw 的任意对话框(Control UI、飞书、Telegram 等)一次性粘贴下面三行,让 AI 自动帮你安装和配置:
npm i -g mcporter npx mcporter config add xiaohongshu-mcp http://localhost:18060/mcp npx mcporter list xiaohongshu-mcp

3、配置验证

  • 配置完后,测试一下:在对话框输入
查看 xiaohongshu-mcp 是否连接成功,能自动发小红书笔记吗?

如果返回工具列表(比如 publish_content、check_login_status 等),说明接入成功。完成上述步骤后,即可在 OpenClaw 中通过自然语言调用 xiaohongshu-mcp 的所有功能。


二、 使用示例

连接成功后,可使用以下 MCP 工具:

  • check_login_status - 检查小红书登录状态(无参数)
  • publish_content - 发布图文内容到小红书(必需:title, content, images)
    • images: 支持 HTTP 链接或本地绝对路径,推荐使用本地路径
  • publish_with_video - 发布视频内容到小红书(必需:title, content, video)
    • video: 仅支持本地视频文件绝对路径
  • list_feeds - 获取小红书首页推荐列表(无参数)
  • search_feeds - 搜索小红书内容(需要:keyword)
  • get_feed_detail - 获取帖子详情(需要:feed_id, xsec_token)
  • post_comment_to_feed - 发表评论到小红书帖子(需要:feed_id, xsec_token, content)
  • user_profile - 获取用户个人主页信息(需要:user_id, xsec_token)

使用 Claude Code 发布内容到小红书:

示例 1:简单图文发布

帮我写一篇帖子发布到小红书上,

配图为:本地D:\Users\LING\Desktop\logo\1a

内容:小红书发文成功 使用 xiaohongshu-mcp 进行发布。

测试结果


示例 2:使用本地图片发布

帮我写一篇关于春天的帖子发布到小红书上, 使用这些本地图片:本地D:\Users\LING\Desktop\logo\ct 使用 xiaohongshu-mcp 进行发布。

测试结果


三、总结

总的来说,xiaohongshu-mcp 是目前最成熟、最活跃的小红书 AI 自动化方案。它把复杂的账号操作标准化成 MCP 工具,让 Claude、Cursor、OpenClaw 等 AI 助手真正成为你的“内容数字员工”——从登录到发布,只需一句话,就能完成过去需要手动几十分钟的工作。

项目开源免费、本地运行、社区持续更新(9.7k+ stars 不是白来的),上手门槛低,但潜力巨大:日更、批量测试、互动自动化、甚至多平台扩展,都变得触手可及。

欢迎大家去 GitHub star 项目,也关注作者 @xpzouying,一起玩转 AI 内容自动化!

有问题欢迎在评论区留言或者私信。

Read more

AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建

AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建

AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建 作者:高瑞冬 本文目录 * AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建 * 一、MCP协议简介 * 二、创建MCP工具集 * 1. 获取MCP服务地址 * 2. 在FastGPT中创建MCP工具集 * 三、测试MCP工具 * 四、AI模型调用MCP工具 * 1. 调用单个工具 * 2. 调用整个工具集 * 五、私有化部署支持 * 1. 环境准备 * 2. 修改docker-compose.yml文件 * 3. 修改FastGPT配置 * 4. 重启服务 * 六、使用MCP-Proxy集成多个MCP服务 * 1. MCP-Proxy简介 * 2. 安装MCP-Proxy * 3. 配置MCP-Proxy * 4. 将MCP-Proxy与FastGPT集成 * 5. 高级配置

By Ne0inhk
【大模型实战篇】基于Claude MCP协议的智能体落地示例

【大模型实战篇】基于Claude MCP协议的智能体落地示例

1. 背景         之前我们在《MCP(Model Context Protocol) 大模型智能体第一个开源标准协议》一文中,介绍了MCP的概念,虽然了解了其概念、架构、解决的问题,但还缺少具体的示例,来帮助进一步理解整套MCP框架如何落地。         今天我们基于claude的官方例子--获取天气预报【1】,来理解MCP落地的整条链路。 2. MCP示例         该案例是构建一个简单的MCP天气预报服务器,并将其连接到主机,即Claude for Desktop。从基本设置开始,然后逐步发展到更复杂的使用场景。         大模型虽然能力非常强,但其弊端就是内容是过时的,这里的过时不是说内容很旧,只是表达内容具有非实时性。比如没有获取天气预报和严重天气警报的能力。因此我们将使用MCP来解决这一问题。         构建一个服务器,该服务器提供两个工具:获取警报(get-alerts)和获取预报(get-forecast)。然后,将该服务器连接到MCP主机(在本例中为Claude for Desktop)。         首先我们配置下环

By Ne0inhk
基于腾讯云HAI + DeepSeek快速设计自己的个人网页

基于腾讯云HAI + DeepSeek快速设计自己的个人网页

前言:通过结合腾讯云HAI 强大的云端运算能力与DeepSeek先进的 AI技术,本文介绍高效、便捷且低成本的设计一个自己的个人网页。你将了解到如何轻松绕过常见的技术阻碍,在腾讯云HAI平台上快速部署DeepSeek模型,仅需简单几步,就能获取一个包含个人简介、技能特长、项目经历及联系方式等核心板块的响应式网页。 目录 一、DeepSeek模型部署在腾讯云HAI 二、设计个人网页 一、DeepSeek模型部署在腾讯云HAI 把 DeepSeek 模型部署于腾讯云 HAI,用户便能避开官网访问限制,直接依托腾讯云 HAI 的超强算力运行 DeepSeek-R1 等模型。这一举措不仅降低了技术门槛,还缩短了部署时间,削减了成本。尤为关键的是,凭借 HAI 平台灵活且可扩展的特性,用户能够依据自身特定需求定制专属解决方案,进而更出色地适配特定业务场景,满足各类技术要求 。 点击访问腾讯云HAI控制台地址: 算力管理 - 高性能应用服务 - 控制台 腾讯云高性能应用服务HAI已支持DeepSeek-R1模型预装环境和CPU算力,只需简单的几步就能调用DeepSeek - R1

By Ne0inhk
AI革命先锋:DeepSeek与蓝耘通义万相2.1的无缝融合引领行业智能化变革

AI革命先锋:DeepSeek与蓝耘通义万相2.1的无缝融合引领行业智能化变革

云边有个稻草人-ZEEKLOG博客 目录 引言 一、什么是DeepSeek? 1.1 DeepSeek平台概述 1.2 DeepSeek的核心功能与技术 二、蓝耘通义万相2.1概述 2.1 蓝耘科技简介 2.2 蓝耘通义万相2.1的功能与优势 1. 全链条智能化解决方案 2. 强大的数据处理能力 3. 高效的模型训练与优化 4. 自动化推理与部署 5. 行业专用解决方案 三、蓝耘通义万相2.1与DeepSeek的对比分析 3.1 核心区别 3.2 结合使用的优势 四、蓝耘注册流程 五、DeepSeek与蓝耘通义万相2.1的集成应用 5.1 集成应用场景 1. 智能医疗诊断

By Ne0inhk