基于 OpenClaw 与 Claude 构建自动化写作工作流实践
这是一套从信息获取到发布的全流程 AI 工作流,旨在减少手动操作。
为什么需要这套系统?
信息过载的困境
持续关注 AI 领域的朋友应该都有同感:信息量太大了。每天打开 X、公众号、GitHub 或技术社区,新内容层出不穷。模型更新、工具迭代、Agent 框架、自动化方案……跟上这些信息本身就已经是一项全职工作。
手动写作的低效循环
更别提后续环节:整理信息、找选题、撰写文章、配图、分发到各个平台。如果全部依赖人工,写作很快就会变成消耗精力的苦差事。我也曾陷入这种状态:想持续输出,但写作过程占用了太多时间。
后来我开始思考一个关键问题:如果写作这件事可以被'系统化',会发生什么?
我不再把 AI 仅仅当作写作工具,而是开始搭建一套完整的 AI 写作工作流。
思路转变:优化流程而非单点写作
大多数人的误区
很多人使用 AI 写作的方式是这样的:
打开 AI → 输入 Prompt → 生成一段文字
这确实能提高效率,但很快会发现:写作真正耗时的,并不是那一段文字。
AI 可能只帮你完成了 10% 的工作,剩下的包括:
- 去哪里获取信息
- 如何整理素材
- 如何形成选题
- 如何组织结构
- 如何配图
- 如何发布到不同平台
如果这些步骤都靠手动完成,效率提升有限。
我的解决方案
所以我决定换一个思路:不再优化'写一篇文章',而是优化'整个写作流程'。
目标是搭建一套从信息输入 → 写作 → 发布,能够自动运转的系统。
系统全貌:完整工作流架构
经过一段时间的搭建,现在的写作流程大致如下:

整个流程已经基本打通。现在每天不再手动整理信息,也很少从零开始写一篇文章,更像是在一个准备好的系统中完成创作。
核心工具清单:
- OpenClaw (AI Agent 自动化中枢)
- Obsidian (知识库)
- Telegram (消息推送)
- bird CLI (Twitter 数据抓取)
- GitHub API (开源动态)
- Dajiala API (公众号监控)
核心环节拆解:五步实现自动化
第一步:让 AI 自动获取信息
写作的第一步,一直是最耗时间的:找信息。
以前我需要刷 X、看 GitHub 趋势、浏览 AI 新闻、收藏素材。这些操作每天重复且非常碎片化。现在我把这一步完全交给 AI。
通过自然语言指令配置 OpenClaw,要求它每天自动获取以下信息:
- Twitter/X 上的 AI 热点讨论
- GitHub 的今日热榜(24 小时内高星项目)
- 微信公众号(新智元、机器之心、量子位)的最新文章
- AI 垂直网站(ai-bot.cn)的今日更新
OpenClaw 会自动执行相关脚本:




