基于 OpenClaw 与 Claude 的自动化写作工作流搭建
在信息爆炸的时代,持续输出高质量内容往往面临巨大挑战。我近期重点投入的方向是构建一套自动化的 AI 写作系统,从信息获取到最终发布,尽可能减少手动干预。
为什么需要这套系统?
信息过载的困境
持续关注 AI 领域的朋友应该深有体会:每天打开 X、公众号、GitHub 或技术社区,新内容层出不穷。模型更新、工具迭代、Agent 框架、自动化方案……跟上这些信息本身就已经是一项全职工作。
手动写作的低效循环
更不用说后续的整理、选题、撰写、配图和发布。如果全流程手动完成,写作会迅速变成消耗精力的负担。我也曾陷入这种状态:想持续输出,但写作占用了太多时间。
后来我开始思考:如果写作这件事可以被"系统化",会发生什么?我不再把 AI 仅仅当作写作工具,而是开始搭建一套完整的 AI 写作工作流。
思路转变:从优化写作到优化流程
大多数人的 AI 写作方式是这样的:
打开 AI → 输入一个 prompt → 生成一段文字
这确实能提高效率,但很快会发现:写作真正耗时的,并不是写那一段文字。
AI 可能只帮你完成了 10% 的工作。剩下的步骤——去哪里获取信息、如何整理素材、如何形成选题、如何组织结构、如何配图、如何发布到不同平台——如果都靠手动完成,效率依然有限。
所以我决定换一个思路:不再优化"写一篇文章",而是优化"整个写作流程"。我想搭一套从信息输入 → 写作 → 发布,能够自动运转的系统。
系统全貌:我的完整 AI 写作工作流
经过一段时间的搭建,现在的写作流程大致如下:
整个流程已经基本打通。现在我每天不再手动整理信息,也很少从 0 开始写一篇文章,更像是在一个已经准备好的系统中完成创作。
核心涉及的工具包括:OpenClaw (AI Agent 自动化中枢)、Obsidian (知识库)、Telegram (消息推送)、bird CLI (Twitter 数据)、GitHub API (开源动态) 以及 Dajiala API (公众号监控)。
核心环节拆解:五步实现自动化
第一步:让 AI 自动获取信息
写作的第一步,一直是最耗时间的:找信息。
以前我需要刷 X、看 GitHub 趋势、看 AI 新闻、收藏素材。这些操作每天重复,且非常碎片化。现在我把这一步完全交给 AI。
我对 OpenClaw 下达指令:
"我想每天自动获取这些信息:Twitter/X 上的 AI 热点讨论、GitHub 的今日热榜(24 小时内高星项目)、微信公众号(新智元、机器之心、量子位)的最新文章、AI 垂直网站(ai-bot.cn)的今日更新"
OpenClaw 会自动执行以下任务:
- 安装
birdCLI 工具(用浏览器 Token 抓取 X 数据) - 运行
fetch_github_direct.py(调用 GitHub API) - 运行
fetch_wechat.sh(接入第三方公众号 API) - 运行
fetch_aibot.py(爬取 AI 网站,并加日期过滤)
我全程没写一行代码。现在系统每天会自动收集 AI 行业动态、热点讨论、GitHub 趋势和技术更新,然后统一汇总。
这一步完成后,我基本不再手动刷信息,所有内容会自动进入下一环节。


