《星辰 RPA 全自动:做一个小红书自动发文机器人》

《星辰 RPA 全自动:做一个小红书自动发文机器人》
前引:在企业数智化转型的浪潮中,如何突破 “有 AI 无落地、有流程无智能” 的困局?星辰 Agent 与星辰 RPA 的出现,正是为了解决这一痛点。作为科大讯飞旗下的双核心产品,星辰 Agent 以企业级 Agentic Workflow 开发平台为底座,提供 AI 工作流编排、模型管理与跨系统连接能力;而星辰 RPA 则以超过 300 个自动化原子能力,让业务流程真正 “动” 起来!

目录

一、企业机器人自动化平台:RPA

(1)RPA介绍

(2)服务端安装

(1)clone项目

(2)配置为本地访问

(3)检查镜像源

(4)配置default.conf

(5)启动完成

(3)客户端安装

(1)客户端一键下载

(2)更新配置文件

(3)登录(重点)

(3)打开机器人调试

(4)制作发文小机器人

(1)打开浏览器并访问小红书网页版

(2)等待页面加载

(3)点击发布入口

(4)点击发布图文

(5)增加用户输入框

(6)机器人输入元素

(7)生成笔记

(8)等待生成完成

(9)点击“下一步”再发布

(5)视频效果展示

二、Astron Agent项目演示

(1)项目地址

(2)项目启动

(3)智能体生成


一、企业机器人自动化平台:RPA

开源地址:https://github.com/iflytek/astron-rpa

(1)RPA介绍
星辰 RPA 是科大讯飞基于 AI+RPA 技术打造的零代码流程自动化开发平台,它内置超过 300 个预置自动化原子能力,让业务人员无需编程,通过拖拽式操作就能快速搭建专属业务机器人,轻松解决跨系统数据同步、重复劳动、规则性任务等企业痛点(可以自己动手实现一个机器人!)
(2)服务端安装

按照下面的顺序启动服务端:

# 克隆项目
git clone https://github.com/iflytek/astron-rpa.git
cd astron-rpa

# 进入 docker 目录
cd docker

# 复制.env
cp .env.example .env

# 修改.env中casdoor的服务配置(8000为默认端口)
CASDOOR_EXTERNAL_ENDPOINT="http://{YOUR_SERVER_IP}:8000"

# 🚀 启动所有服务
docker compose up -d

# 📊 检查服务状态
docker compose ps
(1)clone项目
(2)配置为本地访问

然后我们修改修改.env中casdoor的服务配置,修改为本地的localhost:

(3)检查镜像源

如果镜像源出现问题,可以使用下面的镜像源,先清理之前的镜像缓存,再重新拉取:

整体顺序:

(1)docker system prune -a(清理旧的镜像)

(2)在Docker Desktop中替换为下面的镜像源,然后重新启动Docker Desktop

(3)docker pull mysql:8.0(手动拉取镜像)

{
  "registry-mirrors": [
    "https://docker.1ms.run",
    "https://docker.xuanyuan.me",
    "https://docker.m.daocloud.io"
  ]
}
(4)配置default.conf

直接前往https://github.com/iflytek/astron-rpa/blob/main/docker/volumes/nginx/default.conf复制

(5)启动完成

可以看到所有服务全部正常:

(3)客户端安装
(1)客户端一键下载

大家直接前往这里下载客户端:astron-rpa/README.zh.md at main · iflytek/astron-rpa

(2)更新配置文件

修改为本地部署的服务端地址和端口(可以不用改)

(3)登录(重点)

前往http://localhost:8000/users,然后打开RPA客户端,点击注册按照Casdoor的配置填写!

最后登录完成:

(3)打开机器人调试

首先是浏览器的扩展设置,给机器人授权:

(4)制作发文小机器人
(1)打开浏览器并访问小红书网页版

填入小红书(先手动完成登录https://www.xiaohongshu.com/explore)目标网址和选择目标浏览器

(2)等待页面加载

(先打开Edge浏览器登录小红书,下面的操作才可以继续进行!)

  • 右侧参数面板,找到元素拾取这一项
  • 点击这个按钮,选择小红书的发布位置

Ctrl+左键选择小红书的发布按钮,然后会自动退出来,等你确认:

(3)点击发布入口

增加点击元素,点击元素拾取,然后选择“发布”:

(4)点击发布图文

增加选择点击元素,然后前往小红书点击图文发布

(5)增加用户输入框

作用:告诉机器人要生成的笔记的内容

(6)机器人输入元素

将第一行用户的输入内容,填入这个输入元素的输入里面,点击模拟人工

(7)生成笔记

还是一模一样的操作,新增点击节点,点击生成笔记:

(8)等待生成完成

等待笔记生成完成,留大概20秒就可以了:

(9)点击“下一步”再发布

后面都是通过点击元素完成,这里就不重复了,整体来说上手很快:

(5)视频效果展示

小红书自动发文机器人演示

二、Astron Agent项目演示

(1)项目地址

Astron Agent 开源地址:https://github.com/iflytek/astron-agent

(2)项目启动

直接下载项目到本地!按照下面的教程四步即可快速运行项目:

(1)首先是端口的配置:

# 端口选择上没有强制要求,建议给astron-agent 分配 80 端口
astron-agent-nginx------80  (EXPOSE_NGINX_PORT)
# astron-agent默认文件存储在 minio,如使用 minio ,请给 minio 分配端口和配置放行策略
# minio存储端口
astron-agent-minio------18998  (EXPOSE_MINIO_PORT)
# minio控制台端口
astron-agent-minio-console----18999  (EXPOSE_MINIO_CONSOLE_PORT)
# casdoor单点登录端口
casdoor--------8000  (CASDOOR_PORT)
# ragflow端口(如部署,需要开放此端口)
ragflow--------18080

(2)进入astronAgent目录,复制修改环境变量

cd docker/astronAgent
cp .env.example .env
vim .env

然后前往https://console.xfyun.cn讯飞开放平台获取下面的配置在 .vim 文件中修改:

# 建议换成稳定版本的镜像
ASTRON_AGENT_VERSION=v1.0.0-rc.8
# HOST_BASE_ADDRESS,即实际部署机器的Ip地址,不需要带端口,必须配置
HOST_BASE_ADDRESS=http://127.0.0.1
# 讯飞开放平台相关信息
PLATFORM_APP_ID=your-app-id
PLATFORM_API_KEY=your-api-key
PLATFORM_API_SECRET=your-api-secret
# 星火模型的密钥
SPARK_API_PASSWORD=your-api-password

这里采用的是Docker desktop,Docker Engine可以直接使用下面的:

{
  "registry-mirrors": [
    "https://registry.cn-hangzhou.aliyuncs.com",
    "https://hub-mirror.c.163.com",
    "https://docker.mirrors.ustc.edu.cn"
  ]
}

(3)如图进入对应目录,直接执行下面的启动指令(先运行Docker Desktop):

docker compose -f docker-compose-with-auth.yaml up -d

即可通过浏览器访问智能体平台:

(4)先引入第三方模型(比如豆包、星火模型(讯飞开放平台获取)、智谱的GLM)

(3)智能体生成

在我的智能体选择新建,说实话,我感觉这个一句话生成的比小编搭的要好太多了........爱上了!

Read more

Windows 系统部署 清华团队开源的 Kronos 金融 K 线基础模型——基于 EPGF 架构

Windows 系统部署 清华团队开源的 Kronos 金融 K 线基础模型——基于 EPGF 架构

【EPGF 白皮书】路径治理驱动的多版本 Python 架构—— Windows 环境治理与 AI 教学开发体系 【00】EPGF 架构搭建教程之 总揽篇 【收藏级】Windows AI 本地开发「完全体」环境搭建清单 Windows 系统部署 Kronos 金融 K 线基础模型 ——基于 EPGF 架构 Kronos 仓库介绍 Kronos 是一个针对金融 K 线序列的开源基础模型项目,专为金融市场 "语言" 设计。以下是该仓库的主要信息: 项目概述 Kronos 是首个针对金融烛台图(K 线)的开源基础模型,训练数据来自超过 45 个全球交易所。它采用两阶段框架:

By Ne0inhk

GitHub Actions集成PyTorch-CUDA-v2.6镜像实现CI/CD自动化

GitHub Actions 集成 PyTorch-CUDA-v2.6镜像实现CI/CD自动化 在现代 AI 工程实践中,一个令人头疼的问题始终存在:为什么代码在本地跑得好好的,一到 CI 环境就报错?更别提那些依赖 CUDA 的深度学习项目——“PyTorch 安装失败”、“cuDNN 不兼容”、“GPU 无法识别”……这类问题不仅拖慢迭代节奏,还让新成员望而却步。 尤其当团队开始尝试将模型训练、推理测试纳入自动化流程时,传统手工配置环境的方式彻底暴露短板。你是否也经历过这样的场景:为了验证一次小改动,手动登录服务器、激活虚拟环境、检查驱动版本、重启 Docker 容器?这一套操作下来,半小时没了。 真正的解决方案不是靠“经验”,而是靠标准化和自动化。如果我们能像部署 Web 应用一样,把整个 GPU 计算环境打包成一个可复用的镜像,并通过代码提交自动触发端到端验证,会怎样? 这正是本文要展示的实践路径:

By Ne0inhk
【汉化中文版】OpenClaw(Clawdbot/Moltbot)第三方开源汉化中文发行版部署全指南:一键脚本/Docker/npm 三模式安装+Ubuntu 环境配置+中文汉化界面适配开源版

【汉化中文版】OpenClaw(Clawdbot/Moltbot)第三方开源汉化中文发行版部署全指南:一键脚本/Docker/npm 三模式安装+Ubuntu 环境配置+中文汉化界面适配开源版

OpenClaw这是什么? OpenClaw(曾用名 Clawdbot / Moltbot)是一个开源的个人 AI 助手平台(GitHub 120k+ Stars),可以通过 WhatsApp、Telegram、Discord 等聊天软件与 AI 交互。简单说就是:在你自己的机器上运行一个 AI 助手,通过常用聊天软件跟它对话。 forks项目仓库 :https://github.com/MaoTouHU/OpenClawChinese 文章目录 * OpenClaw这是什么? * 汉化效果预览 * 环境要求 * 安装方式 * 方式 A:一键脚本(推荐新手) * 方式 B:npm 手动安装 * 方式 C:Docker 部署(服务器推荐) * 首次配置 * 运行初始化向导 * 安装守护进程(

By Ne0inhk

为什么90%的PHP低代码项目失败?:流程建模中的5个致命误区

第一章:PHP低代码流程设计的现状与挑战 在当前快速迭代的软件开发环境中,PHP作为广泛应用的服务器端脚本语言,正逐步融入低代码开发范式。低代码平台通过可视化建模和组件拖拽方式降低开发门槛,提升交付效率,但其在PHP生态中的落地仍面临诸多现实挑战。 可视化流程设计的灵活性局限 许多PHP低代码平台依赖图形化流程设计器生成业务逻辑,然而当业务规则复杂时,预设组件难以覆盖所有场景。开发者往往需要手动编写PHP代码进行扩展,导致可视化与代码维护割裂。例如,在处理动态审批流时,需结合条件判断与数据绑定: // 动态审批节点判定逻辑 function getNextApprover($data) { if ($data['amount'] > 10000) { return 'department_head'; // 超过万元需部门主管审批 } else { return 'team_leader'; // 默认团队负责人 } } 运行时性能与可维护性矛盾 低代码平台通常通过元数据解释执行流程逻辑,增加了运行时开销。相比原生PHP代码编译执行,解释模式可能导致响应延迟。以下对比常

By Ne0inhk