AI网文/小说创作平台:AI-Writer、InkOS、MuMuAINovel

AI网文/小说创作平台:AI-Writer、InkOS、MuMuAINovel

AI和LLM已经侵入目之所及的各个角落。本文汇总几款基于AI/LLM的小说创作工具。

AI-Writer

BlinkDL开源(GitHub,3.6K Star,564 Fork)的AI写中文小说工具。使用基于RNN/语言模型(RWKV‑LM)的预训练模型,专注于生成中文网文(如玄幻、言情、网络小说)。

将“根据开头+设定→自动续写/生成后续内容”的流程自动化,能够快速生成连贯(或半连贯)的小说段落/章节。

实战

git clone https://github.com/BlinkDL/AI-Writer.git cd AI-Writer python run.py python server.py 

流程:

  • 打开后,在界面 (或命令行) 中输入文章 / 小说的开头 (几句话或者一个段落)
  • 设置续写长度、采样参数 (如 temperature / 随机度 /生成字数)
  • 执行续写 → 等待 AI 输出生成内容
  • AI 自动生成后,你可以手动编辑、删改、组合输出内容
  • 满意则可保存或导出为纯文本、Markdown、其他格式

局限性:

  • 内容质量参差:由于模型训练语料主要是网络小说(网文),逻辑可能混乱、背景、角色、情节会出现“不合常识 /荒诞 /跳跃”,特别是当生成很长文本时;
  • 语义/常识不可靠:模型欠缺现实世界的常识与约束,生成内容不适合严肃/现实主义写作(尤其是当你希望内容逻辑严谨、人物行为合理时)
  • 可能重复 / 填充 /无意义文字 — 如果采样随机度太高或续写太长,有可能出现重复、无意义或格式混乱的段落。多数用户建议生成后手工修订。
  • 仅供娱乐 /灵感参考 — 官方及社区多处强调:生成内容仅供娱乐 /灵感 /实践参考,不适合当作严肃创作或发表用途。
  • 硬件 /性能限制 — 如果没有 GPU,使用 CPU 生成会比较慢;大模型、长文本、频繁续写,可能需要较多显存 /计算资源。

InkOS

用Gemini/GPT/Claude直接生成长篇小说时,存在问题诸如:角色记忆崩坏、伏笔断裂、战力数值飘忽、文风疲劳。开源(GitHub,1.9K Star,402 Fork)InkOS 试图用“真相文件 + 33维度审计 + 审计-修订闭环”来系统性解决这些痛点。

多智能体CLI系统,由Radar(市场雷达)、Architect(架构师)、Writer(写手)、Auditor(审计官)、Reviser(修订者)等多个Agent组成,目标是把长篇小说创作当成一个“工程项目”来管理。

图片

小说创作拆解为流水线:

  • 长期记忆机制:每本书自动维护7个真相文件(truth files),包括:current_state.md(世界当前状态)、particle_ledger.md(资源账本)、pending_hooks.md(待处理伏笔池)、chapter_summaries.md(章节摘要)、subplot_board.md(支线进度板)、emotional_arcs.md(情感弧线)、character_matrix.md(角色矩阵)。这些文件确保全书范围内角色记忆、数值、伏笔、时间线绝对一致,避免了“上一章主角有剑,下一章突然没了”的经典AI翻车。
  • 33 维度连续性审计:审计官会检查 OOC(角色出戏)、战力崩坏、节奏单调、信息泄露、词汇疲劳、视角跳跃等 33 个维度,甚至还有针对番外的 4 个专属维度(正传事件冲突、未来信息泄露等)。
  • 写后验证器 + 反 AIGC 检测:内置 11 条确定性规则(禁止句式、禁止连续“了”字、套话密度等),违规自动触发 spot-fix(定点修复)模式。同时支持 GPTZero 等外部 API 检测,并提供反检测改写管线。
  • 文风仿写与题材自定义:可分析参考小说生成 style_profile.json,一键注入写手 Prompt;内置玄幻、仙侠、都市、恐怖等 5 个题材规则,还支持每本书独立自定义 book_rules.md。

多智能体系统

Agent职责
雷达Radar扫描平台趋势和读者偏好,指导故事方向(可插拔,可跳过)
建筑师Architect规划章节结构:大纲、场景节拍、节奏控制
写手Writer根据大纲+当前世界状态生成正文
连续性审计员Auditor对照长期记忆验证章稿
修订者Reviser修复审计发现的问题—关键问题自动修复,其他标记给人工审核

优点

  • 连贯性大幅提升:实测31章、45万字小说,审计通过率100%,角色记忆、数值、伏笔几乎无崩坏。
  • 高度可自定义:题材规则、单本书规则、文风指纹,让不同作者能打造专属“创作系统”。
  • 开源透明+扩展性强:支持多模型路由、OpenClaw外部Agent调用、Webhook通知,适合极客二次开发。
  • 反检测与去AI味机制:在网文平台敏感环境下有实际意义。

局限

  • 成本依赖:每章消耗Token不低(尤其是守护模式),长期运行API费用不可忽视。免费模型效果会明显打折
  • 学习曲线:初次配置+理解7个真相文件需要30-60分钟;完全自动化仍需人工干预审核关键章节。
  • 不是零人工:开发者明确强调 human review gates,审计通过 ≠ 出版级质量。爽点设计、情感深度仍需人类把关。
  • 平台适配:目前是纯CLI,后续计划有Web UI(studio),但暂时无图形界面
  • 社区反馈:在Linux.Do等论坛,开发者普遍认可创新性,但也提到“数值系统对都市/恐怖题材用处不大”“守护模式需监控Token消耗

实战

npm i -g @actalk/inkos # 配置 inkos config set-global \--provider openai \ --base-url https://api.openai.com/v1 \ --api-key sk-xxx \--model gpt-5.4 

配置会保存在 ~/.inkos/.env,项目级配置也支持(inkos init)。

官方示例:inkos book create --title "吞天魔帝" --genre xuanhuan

genre支持:xuanhuan、xianxia、urban、horror、general;会在当前目录生成书籍文件夹,包含.envbook_rules.md等。

命令行示例:

inkos write next 吞天魔帝 # 写1章 inkos write next 吞天魔帝 --count5# 连续写5章 inkos up # 后台循环写章,审计失败自动重试 inkos down # 停止 inkos import canon "烈焰前传"--from 吞天魔帝 inkos write next "烈焰前传" inkos style analyze 参考小说.txt # 生成风格指纹 inkos style import 参考小说.txt 吞天魔帝 --name"某作者" inkos status # 查看书籍状态 inkos radar scan # 市场趋势扫描 inkos detect 吞天魔帝 --all# 全书AIGC检测 inkos review list # 列出待人工审核章节 inkos export# 导出起点/番茄格式

生成失败会暂停,推送通知(支持 Telegram、飞书、企业微信、Webhook)。

使用建议:

  • 模型选择:优先 Claude或 GPT(逻辑与连贯性更强)。多模型路由可为 Auditor 设置更强的模型,为 Writer 设置性价比高的。
  • 成本控制:
    • 开启--count批量写章前,先单章测试
    • 守护模式下设置合理重试次数,避免无限循环烧钱
    • 定期inkos detect检查AIGC痕迹,必要时手动polish
  • 人工介入时机:
    • 每5-10章强制inkos review人工审阅一次
    • 重大转折、支线收束时暂停守护进程,手动调整book_rules.md
  • 进阶玩法:
    • 结合OpenClaw等Agent实现自然语言指挥模式
    • 用文风仿写功能批量生成系列作品(前传/后传)
    • 自定义新题材规则(inkos genre copy),打造专属流派系统

MuMuAINovel

在线体验,基于AI的开源(GitHub,2K Star,404 Fork)小说创作助手。

特性

  • 多AI模型:支持OpenAI、Gemini、Claude等主流模型
  • 智能向导:AI自动生成大纲、角色和世界观
  • 角色管理:人物关系、组织架构可视化管理
  • 章节编辑:支持创建、编辑、重新生成和润色
  • 世界观设定:构建完整的故事背景
  • 多种登录:LinuxDO OAuth或本地账户登录
  • PG:生产级数据库,多用户数据隔离
  • Docker部署:一键启动,开箱即用

实战

基于官方提供的docker-compose.yml部署:

git clone https://github.com/xiamuceer-j/MuMuAINovel.git cd MuMuAINovel cp backend/.env.example .env vim .env docker-compose up -d

浏览器打开http://localhost:8000开始体验。

.env文件:

APP_NAME=MuMuAINovel APP_VERSION=1.4.4 APP_HOST=0.0.0.0 APP_PORT=8000DEBUG=false TZ=Asia/Shanghai # PG连接信息POSTGRES_DB=mumuai_novel POSTGRES_USER=johnny POSTGRES_PASSWORD=root POSTGRES_PORT=5432# 日志配置LOG_LEVEL=INFO LOG_TO_FILE=true LOG_FILE_PATH=logs/app.log LOG_MAX_BYTES=10485760LOG_BACKUP_COUNT=30CORS_ORIGINS=["http://localhost:8000","http://127.0.0.1:8000"]# OpenAI 配置OPENAI_API_KEY=your_openai_api_key_here(需要替换)OPENAI_BASE_URL=https://api.openai.com/v1(需要替换)# 默认 AI 配置DEFAULT_AI_PROVIDER=openai DEFAULT_MODEL=gpt-4o-mini(需要替换)DEFAULT_TEMPERATURE=0.7DEFAULT_MAX_TOKENS=32000# LinuxDO OAuth 配置(可选)LINUXDO_CLIENT_ID=11111LINUXDO_CLIENT_SECRET=11111LINUXDO_REDIRECT_URI=http://localhost:8000/api/auth/callback FRONTEND_URL=http://localhost:8000 # 初始管理员(LinuxDO user_id)# INITIAL_ADMIN_LINUXDO_ID=your_linuxdo_user_id# 本地账户登录配置LOCAL_AUTH_ENABLED=true LOCAL_AUTH_USERNAME=admin LOCAL_AUTH_PASSWORD=admin123 LOCAL_AUTH_DISPLAY_NAME=本地管理员 # 会话配置SESSION_EXPIRE_MINUTES=120SESSION_REFRESH_THRESHOLD_MINUTES=30# SMTP默认配置,可在系统设置中被管理员覆盖SMTP_PROVIDER=qq SMTP_HOST=smtp.qq.com [email protected] SMTP_PASSWORD=your-qq-smtp-auth-code SMTP_USE_TLS=false SMTP_USE_SSL=true [email protected] SMTP_FROM_NAME=MuMuAINovel EMAIL_AUTH_ENABLED=true EMAIL_REGISTER_ENABLED=true EMAIL_VERIFICATION_CODE_TTL_MINUTES=10EMAIL_VERIFICATION_RESEND_INTERVAL_SECONDS=60WORKSHOP_MODE=client # 云端服务地址(client模式使用WORKSHOP_CLOUD_URL=https://mumuverse.space:1566 # 云端API请求超时时间(秒)WORKSHOP_API_TIMEOUT=30

Read more

Windows上部署OpenClaw+DeepSeek+ 飞书,实现飞书对本地电脑的AI控制

Windows上部署OpenClaw+DeepSeek+ 飞书,实现飞书对本地电脑的AI控制

OpenClaw 火的离谱,核心在于AI智能体向数字人迈向了坚实的一步,每个人拉个群,然后下达任务,一堆AI反馈“收到”的美好生活来临了,快点在本地部署一下吧。 📋 什么是 OpenClaw? OpenClaw 是一个开源的 AI 助手框架,支持多种大语言模型,可以本地部署,还能集成到飞书等协作工具中。有了它,你就可以: * ✅ 在本地运行 AI 助手,数据更安全 * ✅ 通过 Web UI 界面与 AI 对话 * ✅ 集成到飞书,随时随地使用 * ✅ 操作本地文件,提升工作效率 🛠️ 安装步骤 第一步:安装 OpenClaw 首先,我们需要全局安装 OpenClaw。打开命令行工具(PowerShell 或 CMD),执行以下命令: npm install -g openclaw@

2025年AI领域年度深度总结:始于DeepSeek R1开源发布,终于Manus天价出海

2025年AI领域年度深度总结:始于DeepSeek R1开源发布,终于Manus天价出海

2025年AI领域年度深度总结:始于DeepSeek R1开源发布,终于Manus天价出海 摘要 站在2025年12月31日的终章回望,吴恩达曾说过:“2025年,是AI工业时代的黎明。”在经历了2023-2024年的“大炼模型”狂热后,2025年,AI终于从“概率模仿”跃向了“逻辑推理”的新阶段,从“对话框”到“行动流”的转折也逐渐显现。这一年,AI技术与产业的演进不仅仅是技术迭代那么简单,而是一场深刻的变革,清晰的产业蓝图开始显现:始于DeepSeek R1的开源突破,终于Manus的数十亿美元收购,验证了Agent商业化的巨大潜力。 2025年,AI不再是实验室中的抽象概念,而是逐步嵌入日常生产生活,以更加务实的姿态和广泛的应用场景,真正走向了社会的主流。从年初DeepSeek R1的开源发布到年末Manus的天价收购,这两件大事为2025年的AI发展定下了基调:开源与闭源的博弈,技术与商业的融合,模型与应用的深度对接,无疑为AI的未来铺设了一条发展道路。技术突破和产业落地不断交织,AI的角色正在悄然发生深刻的转变——从“辅助工具”走向了“自主执行者”。 文章目录

【码动四季】Trae + 腾讯地图 MCP 实战:让 AI 直接调用地图能力,一步到位

【码动四季】Trae + 腾讯地图 MCP 实战:让 AI 直接调用地图能力,一步到位

目录 前言 一、关于腾讯地图及其MCP 1、腾讯地图 2、腾讯地图的MCP 二、Trae中腾讯地图的不足 1、MCP市场中的地图 2、基础配置介绍 三、Trae中如何配置腾讯地图MCP 1、腾讯地图MCP 介绍 2、接入方式 步骤1:获取腾讯地图API Key 步骤2:确认腾讯地图MCP接入地址 3、Trae中MCP配置 四、结果认证 1、案例背景 2、步骤解析 3、成果展示 4、未来展望 五、总结 说明:本文为AtomGit 码动四季.开源同行 征稿活动参与文章。 前言         在AI赋能开发的当下,地理信息服务已成为众多应用的核心支撑,从路径规划到位置检索,从物流优化到社交场景适配,

半小时用OpenClaw搭一套AI量化系统:开源三件套实测分享

半小时用OpenClaw搭一套AI量化系统:开源三件套实测分享

作者:老余捞鱼 原创不易,转载请标明出处及原作者。 写在前面的话:见过太多人想用量化,却被各种复杂的代码和环境配置劝退。无论你是刚开始接触数据科学的学生,还是想提升自己投资工具箱的实践者,今天就把我用最近很火的OpenClaw如何搭建AI量化系统的过程完整分享给你。 自从有了OpenClaw后,说实话,个人搭建一套量化系统没你想的那么难。半小时,三行代码,不花钱。 一、先说效果:我一次跑通的回测 先别急着看代码,咱们看看效果。 用这套方案跑了一趟回测,最终跑出来的结果是 59%。当然,这是回测数据,不代表实盘收益,但足以说明这套开源工具链的潜力。 你可能要问我这个收益是怎么算的。说白了就是:系统基于历史数据,按照你设定的策略规则模拟交易,最后算出来的年化结果。 核心观点:回测收益 ≠ 实盘收益,但回测能帮你验证策略逻辑是否靠谱。 二、开源三件套:数据 + 框架 + AI 这套方案的精髓在于开源三件套的组合搭配。用个表格梳理清楚: 组件作用开源地址数据源选股基础数据供给长桥 SDK / AKshar