基于 OpenClaw 与 Claude 的自动化写作工作流搭建实践
这套 AI 工作流覆盖了从信息获取到发布的全流程,几乎无需手动干预。
一、背景与痛点

信息过载的困境
持续关注 AI 领域的朋友应该深有体会:信息太多了。
每天打开 X、公众号、GitHub、技术社区,新内容层出不穷。AI 模型更新、工具迭代、Agent 框架、自动化方案……想跟上这些信息本身就已经是一项全职工作。
手动写作的低效循环
更别提后续环节:
- 整理信息
- 寻找选题
- 撰写文章
- 制作配图
- 分发至各平台
如果全部手动完成,写作就会变成一件极度消耗精力的事。我也曾陷入这种状态:想持续输出,但写作本身占用了太多时间。
核心思考
后来我开始思考一个问题:
如果写作这件事可以被"系统化",会发生什么?
我不再把 AI 仅仅当成写作工具,而是开始搭建一套完整的 AI 写作工作流。
二、思路转变:从优化写作到优化流程
大多数人的误区
大多数人使用 AI 写作的方式是这样的:
打开 AI → 输入一个 prompt → 生成一段文字
这确实能提高效率,但很快会发现:写作真正耗时的,并不是写那一段文字。
AI 只完成了 10%
真正的耗时在于:
- 去哪里获取信息
- 如何整理素材
- 如何形成选题
- 如何组织结构
- 如何配图
- 如何发布到不同平台
如果这些步骤都靠手动完成,AI 只帮你完成了 10% 的工作。
解决方案
所以我决定换一个思路:不再优化"写一篇文章",而是优化"整个写作流程"。
我想搭一套从信息输入 → 写作 → 发布,能够自动运转的系统。
三、系统全貌:完整 AI 写作工作流
经过一段时间的搭建,现在的写作流程大致如下:

整个流程已经基本打通。现在我每天不再手动整理信息,也很少从 0 开始写一篇文章,更像是在一个已经准备好的系统中完成创作。
下面简单分享一下这套系统是如何运转的。
核心工具清单:OpenClaw (AI Agent 自动化中枢)、Obsidian (知识库)、Telegram (消息推送)、bird CLI (Twitter 数据)、GitHub API (开源动态)、Dajiala API (公众号监控)。





