我用Openclaw + Claude搭了一套自动写作系统,每天省3小时

我用Openclaw + Claude搭了一套自动写作系统,每天省3小时
这是我目前最重要的一套AI工作流。从信息获取到发布,几乎不用手动完成。

一、为什么我要搭建这套系统?

AI写作系统-痛点配图

信息过载的困境

如果你也在持续关注AI,应该会有同样的感受:

信息太多了。

每天打开 X、公众号、GitHub、技术社区,都会冒出大量新内容。
AI模型更新、工具更新、Agent框架、自动化方案……

想跟上这些信息,本身就已经是一项工作。

手动写作的低效循环

更别说:

  • 整理信息
  • 找选题
  • 写文章
  • 配图
  • 发布到各个平台

如果全部手动完成,写作就会变成一件非常消耗精力的事。

我一度也在这种状态里:

想持续输出,但写作本身占用了太多时间。

一个关键问题

后来我开始思考一个问题:

如果写作这件事可以被"系统化",会发生什么?

于是,我不再把AI当成写作工具。
而是开始搭一套完整的 AI写作工作流

二、思路转变:从优化写作到优化流程

大多数人的AI写作方式

大多数人使用AI写作,是这样:

打开AI → 输入一个prompt → 生成一段文字 

这确实能提高效率。
但很快会发现:

写作真正耗时的,并不是写那一段文字。

AI只帮你完成了10%

而是:

  • 去哪里获取信息
  • 如何整理素材
  • 如何形成选题
  • 如何组织结构
  • 如何配图
  • 如何发布到不同平台

如果这些步骤都靠手动完成:

AI只帮你完成了10%的工作

我的解决方案

所以我决定换一个思路:

不再优化"写一篇文章"
而是优化"整个写作流程"

我想搭一套:

从信息输入 → 写作 → 发布
能够自动运转的系统。

三、系统全貌:我的完整AI写作工作流

经过一段时间的搭建,我现在的写作流程大致变成了这样:

AI写作系统-完整流程图

整个流程已经基本打通。

现在我每天不再手动整理信息,
也很少从0开始写一篇文章。

更像是:

在一个已经准备好的系统中完成创作。

下面简单分享一下这套系统是如何运转的。

核心工具清单(文末有详细说明):OpenClaw (AI Agent 自动化中枢)Obsidian (知识库)Telegram (消息推送)bird CLI (Twitter数据)GitHub API (开源动态)Dajiala API (公众号监控)

四、核心环节拆解:五步实现自动化

第一步:让AI自动获取信息

写作的第一步,一直是最耗时间的:找信息

以前我需要:

  • 刷X
  • 看GitHub趋势
  • 看AI新闻
  • 收藏素材

这些操作每天重复,且非常碎片化。

现在我把这一步完全交给AI。

我对 OpenClaw 说:

"我想每天自动获取这些信息:Twitter/X 上的AI热点讨论GitHub 的今日热榜(24小时内高星项目)微信公众号(新智元、机器之心、量子位)的最新文章AI垂直网站(ai-bot.cn)的今日更新"

OpenClaw 做了什么:

它自己:

  • 安装了 bird CLI 工具(用我的浏览器Token抓取X数据)
  • 写了 fetch_github_direct.py(调用GitHub API)
  • 写了 fetch_wechat.sh(接入第三方公众号API)
  • 写了 fetch_aibot.py(爬取AI网站,还加了日期过滤)

我全程没写一行代码。

现在系统每天会自动收集:

  • AI行业动态
  • 热点讨论
  • GitHub趋势
  • 技术更新

然后统一汇总。

Pasted image 20260216212724

这一步完成后,我基本不再手动刷信息。
所有内容会自动进入下一环节。

第二步:生成每日AI日报与写作素材池

信息抓取只是第一层。

真正有用的是:把信息变成可以使用的素材

现在系统每天会自动完成:

  • 信息分类
  • 核心内容提取
  • 简要总结
  • 形成日报

我对 OpenClaw 说:

"每天早上9点,把这些信息整理成’卡片式日报’,分类展示:📚 公众号精选🔥 X 全网突发🚀 GitHub 黑马🧠 AI 行业动态"

OpenClaw 做了什么:

它设置了一个定时任务(Cron Job)

每天早上9点,自动:

  1. 执行所有抓取脚本
  2. 用AI解析和总结内容
  3. 生成格式化的日报
  4. 同时推送到两个地方:
    • Telegram(手机立即查看)
    • Obsidian(永久归档到笔记库)
Pasted image 20260216213216

最大的改变

写作不再从0开始

当我准备写一篇内容时,
已经有整理好的素材与结构参考。

写作从"构思"
变成了"加工"。

第三步:在 Obsidian 中用 AI 完成写作

我现在的写作中枢放在 Obsidian

所有日报、素材、想法都会自动进入这里,
形成一个持续积累的内容库。

素材库已经就绪

每天早上9点,OpenClaw 已经把整理好的日报:

  • 推送到 Telegram(即时查看)
  • 自动写入 Obsidian(永久归档)

我打开 Obsidian,素材已经躺在那里等我了。

我如何在 Obsidian 中写作:

这里我用的是 Claudian 插件(Claude 模型直接集成在 Obsidian 中)。

我对 Claude 说:

"基于今天日报中的’AI Agent 零代码实现’这个话题,帮我生成一篇公众号文章的初稿。

从我的素材库中调取相关案例,按照这个结构展开:为什么需要零代码我的实现过程实战案例工具清单"

Claude 在 Obsidian 中完成:

  • 检索我的素材库(已发布内容、金句库、案例库)
  • 生成结构化初稿
  • 自动引用相关笔记链接
  • 保持我的写作风格

写作角色的转变

在真正写文章时:

AI(Claude)会辅助完成:

  • 初稿生成
  • 结构整理
  • 内容扩展
  • 语言优化

而我只需要做一件事:

最后的思考与判断

写作从过去的"体力活",
变成了现在的"决策型工作"。

这也是我最明显的感受变化。

第四步:配图与多平台发布自动化

写完文章并不代表结束。

还需要:

  • 配图
  • 排版
  • 发布公众号
  • 同步小红书
  • 同步X

这些曾经是最耗时间的重复操作。

Pasted image 20260216213600

自动化实现

现在这一步也被逐渐自动化:

  • AI生成配图
  • 自动适配不同平台
  • 自动发布或半自动发布

闭环形成

于是,完整流程就形成了闭环:

信息输入 → 写作 → 发布 基本实现自动运转 

五、这套系统带来的改变

搭建这套AI写作工作流之后,
最大的变化不是写得更快。

而是:

写作变得稳定了

  • 过去写作靠情绪与时间
  • 现在写作靠系统

信息焦虑明显减少

  • 不再担心错过信息
  • 因为系统每天都在自动获取

输出不再依赖意志力

  • 只需要在系统里完成最后一步

某种程度上,这更像是:

给自己搭建了一支AI内容团队

结语:AI改变的是工作方式

在这个过程中,我逐渐意识到一件事:

AI真正改变的不是写作
而是一个人的工作方式

我现在做的,也不只是用AI写文章。

而是在搭一套:

属于自己的AI工作系统

它会随着时间不断迭代,
也会成为未来所有工作的基础设施。

Read more

人工智能:自然语言处理在社交媒体分析领域的应用与实战

人工智能:自然语言处理在社交媒体分析领域的应用与实战

人工智能:自然语言处理在社交媒体分析领域的应用与实战 学习目标 💡 理解自然语言处理(NLP)在社交媒体分析领域的应用场景和重要性 💡 掌握社交媒体分析的核心技术(如情感分析、话题检测、用户画像构建) 💡 学会使用前沿模型(如BERT、GPT-3)进行社交媒体文本分析 💡 理解社交媒体分析的特殊挑战(如数据量大、噪声多、实时性要求高) 💡 通过实战项目,开发一个社交媒体话题检测应用 重点内容 * 社交媒体分析的主要应用场景 * 核心技术(情感分析、话题检测、用户画像构建) * 前沿模型(BERT、GPT-3)在社交媒体分析中的使用 * 社交媒体分析的特殊挑战 * 实战项目:社交媒体话题检测应用开发 一、社交媒体分析的主要应用场景 1.1 情感分析 1.1.1 情感分析的基本概念 情感分析是对社交媒体文本中情感倾向进行分析和判断的过程。在社交媒体分析领域,情感分析的主要应用场景包括: * 品牌声誉管理:分析用户对品牌的情感倾向(如“正面评价”、“负面评价”

By Ne0inhk

AI 概念大扒皮:从 LLM 到 Agent,一次说清楚

🤖 AI 概念大扒皮:从 LLM 到 Agent,一次说清楚 这些词你认识几个?不管认识多少,今天都给你扒个底朝天。所谓智能体,其实是由所有"不需要智能"的部分拼凑而成的;那些花里胡哨的新概念,大多不过是新瓶装旧酒。 涉及关键词:LLMPromptContextMemoryAgentRAGFunction CallingMCPSkillSub-Agent 💡 先清空大脑 忘掉你已知的一切,跟着故事线走——你会发现这些概念都是从同一个起点,一步步生长出来的。 🧠 第一步:语言模型长大了 一切混乱的起点,是这个古老的东西——语言模型。早期的小模型基本上是个智障,只会简单的文字接龙。但随着参数规模不断膨胀,在某个临界点,它突然"涌现"出了真正的智能。 为了和之前的小模型做区分,我们在前面加了个"大"字: 🆕 词汇① 大语言模型(LLM) LLM

By Ne0inhk
手把手搭建自定义 MCP 本地服务 stdio 和 sse 模式,实现 AI 工具个性化调用

手把手搭建自定义 MCP 本地服务 stdio 和 sse 模式,实现 AI 工具个性化调用

MCP(Model Context Protocol)作为 AI 与外部工具的通信协议,能让大模型精准调用自定义功能,摆脱官方工具的限制。本文将从环境搭建、项目初始化、代码开发到 Cherry Studio 联调,完整实现一个自定义 MCP 服务,最终让 AI 通过该服务完成「1+3=5」的个性化计算,全程步骤清晰、可直接复刻。 一、前置准备:安装 uv 包管理工具(核心环境) uv 是新一代 Python 包管理工具,比 pip/conda 更快,且能统一管理 Python 版本和项目依赖,是搭建 MCP 服务的最佳选择,仅需一行命令完成安装。 安装命令(PowerShell

By Ne0inhk

2025年电视直播源m3u:AI如何自动抓取与更新直播源

快速体验 1. 打开 InsCode(快马)平台 https://www.inscode.net 2. 点击'项目生成'按钮,等待项目生成完整后预览效果 输入框内输入如下内容: 开发一个基于AI的电视直播源m3u自动抓取工具,支持以下功能:1. 自动爬取2025年最新的电视直播源链接;2. 使用AI模型验证直播源的有效性;3. 自动更新m3u文件;4. 提供API接口供其他应用调用。使用Python语言开发,集成Kimi-K2模型进行智能验证,确保直播源的准确性和稳定性。 最近在折腾电视直播源的管理,发现手动维护m3u文件特别麻烦。直播源经常失效,更新不及时,体验很差。于是就研究了下用AI自动化的方案,这里分享下我的实践过程。 1. 需求分析 首先明确核心需求:要能自动获取2025年可用的直播源,并且保证链接的有效性。传统做法是人工收集测试,但效率低还容易出错。AI的介入可以解决两个关键问题:自动化抓取和智能验证。 2. 系统设计 整个系统分为四个模块:

By Ne0inhk