这是一套从信息获取到内容发布的完整 AI 工作流,旨在通过系统化手段减少手动操作。
为什么需要搭建这套系统?
信息过载的困境
持续关注 AI 领域的朋友应该都有同感:信息太多了。
每天打开 X、公众号、GitHub 或技术社区,新内容层出不穷。模型更新、工具迭代、Agent 框架、自动化方案……想跟上这些信息本身就已经是一项全职工作。
手动写作的低效循环
更别提后续环节:
- 整理信息
- 筛选选题
- 撰写文章
- 制作配图
- 多平台发布
如果全部依赖手动完成,写作就会变成一件极度消耗精力的事。我也曾陷入这种状态:想持续输出,但写作过程占用了太多时间。
后来我开始思考一个问题:
如果写作这件事可以被'系统化',会发生什么?
于是我不再把 AI 仅仅当作写作工具,而是开始搭建一套完整的 AI 写作工作流。
思路转变:从优化写作到优化流程
大多数人的误区
大多数人使用 AI 写作的方式是这样的:
打开 AI → 输入 Prompt → 生成一段文字
这确实能提高效率,但很快会发现:写作真正耗时的,并不是写那一段文字。
AI 只完成了 10% 的工作
真正的耗时点在于:
- 去哪里获取信息
- 如何整理素材
- 如何形成选题
- 如何组织结构
- 如何配图与分发
如果这些步骤都靠手动完成,AI 实际上只帮你完成了 10% 的工作。
我的解决方案
所以我决定换一个思路:不再优化'写一篇文章',而是优化'整个写作流程'。
我想搭建一套从信息输入 → 写作 → 发布,能够自动运转的系统。
系统全貌:完整 AI 写作工作流
经过一段时间的搭建,现在的写作流程大致如下:
整个流程已经基本打通。现在不再手动整理信息,也很少从零开始写文章,更像是在一个准备好的系统中完成创作。
下面简单分享一下这套系统是如何运转的。
核心工具清单:OpenClaw (AI Agent 自动化中枢)、Obsidian (知识库)、Telegram (消息推送)、bird CLI (Twitter 数据)、GitHub API (开源动态)、Dajiala API (公众号监控)。
核心环节拆解:五步实现自动化
第一步:让 AI 自动获取信息
写作的第一步,一直是最耗时间的:找信息。
以前需要刷 X、看 GitHub 趋势、浏览 AI 新闻、收藏素材。这些操作每天重复且非常碎片化。现在我把这一步完全交给 AI。
指令示例
我对 OpenClaw 说:
'我想每天自动获取这些信息:Twitter/X 上的 AI 热点讨论、GitHub 的今日热榜(24 小时内高星项目)、微信公众号(新智元、机器之心、量子位)的最新文章、AI 垂直网站(ai-bot.cn)的今日更新。'

