《星辰 RPA 全自动:做一个小红书自动发文机器人》

《星辰 RPA 全自动:做一个小红书自动发文机器人》
前引:在企业数智化转型的浪潮中,如何突破 “有 AI 无落地、有流程无智能” 的困局?星辰 Agent 与星辰 RPA 的出现,正是为了解决这一痛点。作为科大讯飞旗下的双核心产品,星辰 Agent 以企业级 Agentic Workflow 开发平台为底座,提供 AI 工作流编排、模型管理与跨系统连接能力;而星辰 RPA 则以超过 300 个自动化原子能力,让业务流程真正 “动” 起来!

目录

一、企业机器人自动化平台:RPA

(1)RPA介绍

(2)服务端安装

(1)clone项目

(2)配置为本地访问

(3)检查镜像源

(4)配置default.conf

(5)启动完成

(3)客户端安装

(1)客户端一键下载

(2)更新配置文件

(3)登录(重点)

(3)打开机器人调试

(4)制作发文小机器人

(1)打开浏览器并访问小红书网页版

(2)等待页面加载

(3)点击发布入口

(4)点击发布图文

(5)增加用户输入框

(6)机器人输入元素

(7)生成笔记

(8)等待生成完成

(9)点击“下一步”再发布

(5)视频效果展示

二、Astron Agent项目演示

(1)项目地址

(2)项目启动

(3)智能体生成


一、企业机器人自动化平台:RPA

开源地址:https://github.com/iflytek/astron-rpa

(1)RPA介绍
星辰 RPA 是科大讯飞基于 AI+RPA 技术打造的零代码流程自动化开发平台,它内置超过 300 个预置自动化原子能力,让业务人员无需编程,通过拖拽式操作就能快速搭建专属业务机器人,轻松解决跨系统数据同步、重复劳动、规则性任务等企业痛点(可以自己动手实现一个机器人!)
(2)服务端安装

按照下面的顺序启动服务端:

# 克隆项目
git clone https://github.com/iflytek/astron-rpa.git
cd astron-rpa

# 进入 docker 目录
cd docker

# 复制.env
cp .env.example .env

# 修改.env中casdoor的服务配置(8000为默认端口)
CASDOOR_EXTERNAL_ENDPOINT="http://{YOUR_SERVER_IP}:8000"

# 🚀 启动所有服务
docker compose up -d

# 📊 检查服务状态
docker compose ps
(1)clone项目
(2)配置为本地访问

然后我们修改修改.env中casdoor的服务配置,修改为本地的localhost:

(3)检查镜像源

如果镜像源出现问题,可以使用下面的镜像源,先清理之前的镜像缓存,再重新拉取:

整体顺序:

(1)docker system prune -a(清理旧的镜像)

(2)在Docker Desktop中替换为下面的镜像源,然后重新启动Docker Desktop

(3)docker pull mysql:8.0(手动拉取镜像)

{
  "registry-mirrors": [
    "https://docker.1ms.run",
    "https://docker.xuanyuan.me",
    "https://docker.m.daocloud.io"
  ]
}
(4)配置default.conf

直接前往https://github.com/iflytek/astron-rpa/blob/main/docker/volumes/nginx/default.conf复制

(5)启动完成

可以看到所有服务全部正常:

(3)客户端安装
(1)客户端一键下载

大家直接前往这里下载客户端:astron-rpa/README.zh.md at main · iflytek/astron-rpa

(2)更新配置文件

修改为本地部署的服务端地址和端口(可以不用改)

(3)登录(重点)

前往http://localhost:8000/users,然后打开RPA客户端,点击注册按照Casdoor的配置填写!

最后登录完成:

(3)打开机器人调试

首先是浏览器的扩展设置,给机器人授权:

(4)制作发文小机器人
(1)打开浏览器并访问小红书网页版

填入小红书(先手动完成登录https://www.xiaohongshu.com/explore)目标网址和选择目标浏览器

(2)等待页面加载

(先打开Edge浏览器登录小红书,下面的操作才可以继续进行!)

  • 右侧参数面板,找到元素拾取这一项
  • 点击这个按钮,选择小红书的发布位置

Ctrl+左键选择小红书的发布按钮,然后会自动退出来,等你确认:

(3)点击发布入口

增加点击元素,点击元素拾取,然后选择“发布”:

(4)点击发布图文

增加选择点击元素,然后前往小红书点击图文发布

(5)增加用户输入框

作用:告诉机器人要生成的笔记的内容

(6)机器人输入元素

将第一行用户的输入内容,填入这个输入元素的输入里面,点击模拟人工

(7)生成笔记

还是一模一样的操作,新增点击节点,点击生成笔记:

(8)等待生成完成

等待笔记生成完成,留大概20秒就可以了:

(9)点击“下一步”再发布

后面都是通过点击元素完成,这里就不重复了,整体来说上手很快:

(5)视频效果展示

小红书自动发文机器人演示

二、Astron Agent项目演示

(1)项目地址

Astron Agent 开源地址:https://github.com/iflytek/astron-agent

(2)项目启动

直接下载项目到本地!按照下面的教程四步即可快速运行项目:

(1)首先是端口的配置:

# 端口选择上没有强制要求,建议给astron-agent 分配 80 端口
astron-agent-nginx------80  (EXPOSE_NGINX_PORT)
# astron-agent默认文件存储在 minio,如使用 minio ,请给 minio 分配端口和配置放行策略
# minio存储端口
astron-agent-minio------18998  (EXPOSE_MINIO_PORT)
# minio控制台端口
astron-agent-minio-console----18999  (EXPOSE_MINIO_CONSOLE_PORT)
# casdoor单点登录端口
casdoor--------8000  (CASDOOR_PORT)
# ragflow端口(如部署,需要开放此端口)
ragflow--------18080

(2)进入astronAgent目录,复制修改环境变量

cd docker/astronAgent
cp .env.example .env
vim .env

然后前往https://console.xfyun.cn讯飞开放平台获取下面的配置在 .vim 文件中修改:

# 建议换成稳定版本的镜像
ASTRON_AGENT_VERSION=v1.0.0-rc.8
# HOST_BASE_ADDRESS,即实际部署机器的Ip地址,不需要带端口,必须配置
HOST_BASE_ADDRESS=http://127.0.0.1
# 讯飞开放平台相关信息
PLATFORM_APP_ID=your-app-id
PLATFORM_API_KEY=your-api-key
PLATFORM_API_SECRET=your-api-secret
# 星火模型的密钥
SPARK_API_PASSWORD=your-api-password

这里采用的是Docker desktop,Docker Engine可以直接使用下面的:

{
  "registry-mirrors": [
    "https://registry.cn-hangzhou.aliyuncs.com",
    "https://hub-mirror.c.163.com",
    "https://docker.mirrors.ustc.edu.cn"
  ]
}

(3)如图进入对应目录,直接执行下面的启动指令(先运行Docker Desktop):

docker compose -f docker-compose-with-auth.yaml up -d

即可通过浏览器访问智能体平台:

(4)先引入第三方模型(比如豆包、星火模型(讯飞开放平台获取)、智谱的GLM)

(3)智能体生成

在我的智能体选择新建,说实话,我感觉这个一句话生成的比小编搭的要好太多了........爱上了!

Read more

硬件-电源-VR多相电源深入解析

1. 引言 一块高性能服务器主板的CPU插槽周围,总是簇拥着一排排整齐的、覆盖着金属散热片的“小方块”。它们就属于VR多相电源的一部分,VR多相电源如同CPU的“专用心脏”,负责将来自电源的“粗犷”能量,转化为CPU所能接受的“精细”养分。本文主要介绍Buck多相电源。 2. VRM是什么?为什么需要“多相”? 2.1 VRM的核心使命:精准的“能量转换师” VRM,全称 Voltage Regulator Module(电压调节模块),其核心任务只有一个:将来自一次电源的电压(如+12V),高效、精准地转换为CPU、GPU等核心芯片所需的低电压(如0.8V~1.3V)和大电流(可达数百A)。 如果让数百安培的电流直接以1V电压从机箱电源传输到CPU,线路损耗将是灾难性的。因此,必须在CPU边上就近进行高效电压转换,这就是VRM存在的根本原因。 2.

OpenClaw基础-3-telegram机器人配置与加入群聊

OpenClaw基础-3-telegram机器人配置与加入群聊 💡 大家好,我是可夫小子,《小白玩转ChatGPT》专栏作者,关注AI编程、AI自动化和自媒体。 Openclaw的优势是接入各种聊天工作,在前面的文章里,已经介绍了如何接入飞书。但之前我也提到了,飞书的最大的问题是请求多的限制,以及无法在非认证企业账号下面组建群聊。但这些限制另一个聊天工具可以打破,那就是Telegram,今天就跟大家分享一下,如果在OpenClaw里面接入Telegram。 第一步:Openclaw端配置 通过命令openclaw config,local→channels→telegrams 这里等待输入API Token,接下来我们去Telegram里面获取 第二步:Telegram端配置 1. 1. 在聊天窗口找到BotFather,打开对话与他私聊 2. 3. 然后再输入一个机器人,再输入一个账号名username,这里面要求以Bot或者Bot结尾,这个是全网的id,要 2. /newbot 来创建一个机器人,输入一个名字name

VLA机器人革命:解析当下10篇最关键的视觉-语言-动作模型论文

VLA机器人革命:解析当下10篇最关键的视觉-语言-动作模型论文

VLA机器人革命:解析当下10篇最关键的视觉-语言-动作模型论文 概览 2024-2026年,机器人领域正经历一场范式转换:从传统的任务特定编程转向视觉-语言-动作(Vision-Language-Action, VLA)模型。这些模型将视觉感知、自然语言理解和动作执行统一在单一框架中,让机器人能够像人类一样理解指令、推理场景并执行复杂操作。 本文精选5篇最fundamental的基础性论文和5篇热度最高的前沿论文,深入剖析VLA领域的核心思想、技术演进和未来方向。这些论文代表了从Google DeepMind、NVIDIA、斯坦福、Physical Intelligence等顶尖机构的最新突破,涵盖了从单臂操作到双臂人形机器人、从模拟环境到真实家庭场景的全方位进展。 Part I: 五篇Fundamental基础性论文 这些论文奠定了VLA领域的理论基础和技术范式,是理解整个领域发展脉络的关键。 1. RT-2: New Model Translates Vision and Language into Action 发表机构:Google DeepMind 时间:

LazyLLM 测评 | 低代码颠覆 AI 开发!代码专家智能体进阶模块实战

LazyLLM 测评 | 低代码颠覆 AI 开发!代码专家智能体进阶模块实战

摘要: LazyLLM 是商汤大装置推出的开源低代码框架,作为构建和优化多 Agent 应用的一站式开发框架,覆盖应用搭建、数据准备、模型部署、微调、评测等全流程开发环节,提供丰富的工具支持。其以模块化设计打破传统开发壁垒,通过数据流驱动重构开发逻辑,能让开发者用极简代码实现工业级复杂 AI 应用,摆脱冗余编码束缚,聚焦核心业务场景,降低 AI 应用构建成本并支持持续迭代优化。堪称 AI 开发者的 “效率神器”,其技术普惠理念为 AI 开发领域带来新的实践范式,推动了更高效的开发模式。本文将以Python编程为切入点,带你深入了解LazyLLM框架。 LazyLLM 是构建和优化多 Agent 应用的一站式开发工具,为应用开发过程中的全部环节(包括应用搭建、数据准备、模型部署、模型微调、评测等)提供了大量的工具,协助开发者用极低的成本构建 AI 应用,并可以持续地迭代优化效果。 LazyLLM作为商汤大装置推出的开源低代码框架,简直是AI开发者的“效率神器”