这是我目前最重要的一套 AI 工作流。从信息获取到发布,几乎不用手动完成。
为什么搭建这套系统

信息过载的困境
如果你也在持续关注 AI,应该会有同样的感受:信息太多了。
每天打开 X、公众号、GitHub、技术社区,都会冒出大量新内容。AI 模型更新、工具更新、Agent 框架、自动化方案……想跟上这些信息,本身就已经是一项工作。
手动写作的低效循环
更别说整理信息、找选题、写文章、配图、发布到各个平台。如果全部手动完成,写作就会变成一件非常消耗精力的事。
我一度也在这种状态里:想持续输出,但写作本身占用了太多时间。
后来我开始思考一个问题:如果写作这件事可以被'系统化',会发生什么?
于是,我不再把 AI 当成写作工具,而是开始搭一套完整的 AI 写作工作流。
思路转变:从优化写作到优化流程
大多数人使用 AI 写作,是这样:
打开 AI → 输入一个 prompt → 生成一段文字
这确实能提高效率。但很快会发现,写作真正耗时的,并不是写那一段文字。
而是去哪里获取信息、如何整理素材、如何形成选题、如何组织结构、如何配图、如何发布到不同平台。如果这些步骤都靠手动完成,AI 只帮你完成了 10% 的工作。
所以我决定换一个思路:不再优化'写一篇文章',而是优化'整个写作流程'。我想搭一套从信息输入 → 写作 → 发布能够自动运转的系统。
系统全貌:我的完整 AI 写作工作流
经过一段时间的搭建,我现在的写作流程大致变成了这样:

整个流程已经基本打通。现在我每天不再手动整理信息,也很少从 0 开始写一篇文章。更像是在一个已经准备好的系统中完成创作。
下面简单分享一下这套系统是如何运转的。
核心工具清单:OpenClaw (AI Agent 自动化中枢)、Obsidian (知识库)、Telegram (消息推送)、bird CLI (Twitter 数据)、GitHub API (开源动态)、Dajiala API (公众号监控)
核心环节拆解:五步实现自动化
第一步:让 AI 自动获取信息
写作的第一步,一直是最耗时间的:找信息。以前我需要刷 X、看 GitHub 趋势、看 AI 新闻、收藏素材。这些操作每天重复,且非常碎片化。现在我把这一步完全交给 AI。
我对 OpenClaw 说:
'我想每天自动获取这些信息:Twitter/X 上的 AI 热点讨论、GitHub 的今日热榜(24 小时内高星项目)、微信公众号(新智元、机器之心、量子位)的最新文章、AI 垂直网站(ai-bot.cn)的今日更新'
OpenClaw 做了什么?它自己安装了 bird CLI 工具(用我的浏览器 Token 抓取 X 数据),写了 fetch_github_direct.py(调用 GitHub API),写了 fetch_wechat.sh(接入第三方公众号 API),写了 fetch_aibot.py(爬取 AI 网站,还加了日期过滤)。我全程没写一行代码。
现在系统每天会自动收集 AI 行业动态、热点讨论、GitHub 趋势、技术更新,然后统一汇总。





