AI网文/小说创作平台:AI-Writer、InkOS、MuMuAINovel

AI网文/小说创作平台:AI-Writer、InkOS、MuMuAINovel

AI和LLM已经侵入目之所及的各个角落。本文汇总几款基于AI/LLM的小说创作工具。

AI-Writer

BlinkDL开源(GitHub,3.6K Star,564 Fork)的AI写中文小说工具。使用基于RNN/语言模型(RWKV‑LM)的预训练模型,专注于生成中文网文(如玄幻、言情、网络小说)。

将“根据开头+设定→自动续写/生成后续内容”的流程自动化,能够快速生成连贯(或半连贯)的小说段落/章节。

实战

git clone https://github.com/BlinkDL/AI-Writer.git cd AI-Writer python run.py python server.py 

流程:

  • 打开后,在界面 (或命令行) 中输入文章 / 小说的开头 (几句话或者一个段落)
  • 设置续写长度、采样参数 (如 temperature / 随机度 /生成字数)
  • 执行续写 → 等待 AI 输出生成内容
  • AI 自动生成后,你可以手动编辑、删改、组合输出内容
  • 满意则可保存或导出为纯文本、Markdown、其他格式

局限性:

  • 内容质量参差:由于模型训练语料主要是网络小说(网文),逻辑可能混乱、背景、角色、情节会出现“不合常识 /荒诞 /跳跃”,特别是当生成很长文本时;
  • 语义/常识不可靠:模型欠缺现实世界的常识与约束,生成内容不适合严肃/现实主义写作(尤其是当你希望内容逻辑严谨、人物行为合理时)
  • 可能重复 / 填充 /无意义文字 — 如果采样随机度太高或续写太长,有可能出现重复、无意义或格式混乱的段落。多数用户建议生成后手工修订。
  • 仅供娱乐 /灵感参考 — 官方及社区多处强调:生成内容仅供娱乐 /灵感 /实践参考,不适合当作严肃创作或发表用途。
  • 硬件 /性能限制 — 如果没有 GPU,使用 CPU 生成会比较慢;大模型、长文本、频繁续写,可能需要较多显存 /计算资源。

InkOS

用Gemini/GPT/Claude直接生成长篇小说时,存在问题诸如:角色记忆崩坏、伏笔断裂、战力数值飘忽、文风疲劳。开源(GitHub,1.9K Star,402 Fork)InkOS 试图用“真相文件 + 33维度审计 + 审计-修订闭环”来系统性解决这些痛点。

多智能体CLI系统,由Radar(市场雷达)、Architect(架构师)、Writer(写手)、Auditor(审计官)、Reviser(修订者)等多个Agent组成,目标是把长篇小说创作当成一个“工程项目”来管理。

图片

小说创作拆解为流水线:

  • 长期记忆机制:每本书自动维护7个真相文件(truth files),包括:current_state.md(世界当前状态)、particle_ledger.md(资源账本)、pending_hooks.md(待处理伏笔池)、chapter_summaries.md(章节摘要)、subplot_board.md(支线进度板)、emotional_arcs.md(情感弧线)、character_matrix.md(角色矩阵)。这些文件确保全书范围内角色记忆、数值、伏笔、时间线绝对一致,避免了“上一章主角有剑,下一章突然没了”的经典AI翻车。
  • 33 维度连续性审计:审计官会检查 OOC(角色出戏)、战力崩坏、节奏单调、信息泄露、词汇疲劳、视角跳跃等 33 个维度,甚至还有针对番外的 4 个专属维度(正传事件冲突、未来信息泄露等)。
  • 写后验证器 + 反 AIGC 检测:内置 11 条确定性规则(禁止句式、禁止连续“了”字、套话密度等),违规自动触发 spot-fix(定点修复)模式。同时支持 GPTZero 等外部 API 检测,并提供反检测改写管线。
  • 文风仿写与题材自定义:可分析参考小说生成 style_profile.json,一键注入写手 Prompt;内置玄幻、仙侠、都市、恐怖等 5 个题材规则,还支持每本书独立自定义 book_rules.md。

多智能体系统

Agent职责
雷达Radar扫描平台趋势和读者偏好,指导故事方向(可插拔,可跳过)
建筑师Architect规划章节结构:大纲、场景节拍、节奏控制
写手Writer根据大纲+当前世界状态生成正文
连续性审计员Auditor对照长期记忆验证章稿
修订者Reviser修复审计发现的问题—关键问题自动修复,其他标记给人工审核

优点

  • 连贯性大幅提升:实测31章、45万字小说,审计通过率100%,角色记忆、数值、伏笔几乎无崩坏。
  • 高度可自定义:题材规则、单本书规则、文风指纹,让不同作者能打造专属“创作系统”。
  • 开源透明+扩展性强:支持多模型路由、OpenClaw外部Agent调用、Webhook通知,适合极客二次开发。
  • 反检测与去AI味机制:在网文平台敏感环境下有实际意义。

局限

  • 成本依赖:每章消耗Token不低(尤其是守护模式),长期运行API费用不可忽视。免费模型效果会明显打折
  • 学习曲线:初次配置+理解7个真相文件需要30-60分钟;完全自动化仍需人工干预审核关键章节。
  • 不是零人工:开发者明确强调 human review gates,审计通过 ≠ 出版级质量。爽点设计、情感深度仍需人类把关。
  • 平台适配:目前是纯CLI,后续计划有Web UI(studio),但暂时无图形界面
  • 社区反馈:在Linux.Do等论坛,开发者普遍认可创新性,但也提到“数值系统对都市/恐怖题材用处不大”“守护模式需监控Token消耗

实战

npm i -g @actalk/inkos # 配置 inkos config set-global \--provider openai \ --base-url https://api.openai.com/v1 \ --api-key sk-xxx \--model gpt-5.4 

配置会保存在 ~/.inkos/.env,项目级配置也支持(inkos init)。

官方示例:inkos book create --title "吞天魔帝" --genre xuanhuan

genre支持:xuanhuan、xianxia、urban、horror、general;会在当前目录生成书籍文件夹,包含.envbook_rules.md等。

命令行示例:

inkos write next 吞天魔帝 # 写1章 inkos write next 吞天魔帝 --count5# 连续写5章 inkos up # 后台循环写章,审计失败自动重试 inkos down # 停止 inkos import canon "烈焰前传"--from 吞天魔帝 inkos write next "烈焰前传" inkos style analyze 参考小说.txt # 生成风格指纹 inkos style import 参考小说.txt 吞天魔帝 --name"某作者" inkos status # 查看书籍状态 inkos radar scan # 市场趋势扫描 inkos detect 吞天魔帝 --all# 全书AIGC检测 inkos review list # 列出待人工审核章节 inkos export# 导出起点/番茄格式

生成失败会暂停,推送通知(支持 Telegram、飞书、企业微信、Webhook)。

使用建议:

  • 模型选择:优先 Claude或 GPT(逻辑与连贯性更强)。多模型路由可为 Auditor 设置更强的模型,为 Writer 设置性价比高的。
  • 成本控制:
    • 开启--count批量写章前,先单章测试
    • 守护模式下设置合理重试次数,避免无限循环烧钱
    • 定期inkos detect检查AIGC痕迹,必要时手动polish
  • 人工介入时机:
    • 每5-10章强制inkos review人工审阅一次
    • 重大转折、支线收束时暂停守护进程,手动调整book_rules.md
  • 进阶玩法:
    • 结合OpenClaw等Agent实现自然语言指挥模式
    • 用文风仿写功能批量生成系列作品(前传/后传)
    • 自定义新题材规则(inkos genre copy),打造专属流派系统

MuMuAINovel

在线体验,基于AI的开源(GitHub,2K Star,404 Fork)小说创作助手。

特性

  • 多AI模型:支持OpenAI、Gemini、Claude等主流模型
  • 智能向导:AI自动生成大纲、角色和世界观
  • 角色管理:人物关系、组织架构可视化管理
  • 章节编辑:支持创建、编辑、重新生成和润色
  • 世界观设定:构建完整的故事背景
  • 多种登录:LinuxDO OAuth或本地账户登录
  • PG:生产级数据库,多用户数据隔离
  • Docker部署:一键启动,开箱即用

实战

基于官方提供的docker-compose.yml部署:

git clone https://github.com/xiamuceer-j/MuMuAINovel.git cd MuMuAINovel cp backend/.env.example .env vim .env docker-compose up -d

浏览器打开http://localhost:8000开始体验。

.env文件:

APP_NAME=MuMuAINovel APP_VERSION=1.4.4 APP_HOST=0.0.0.0 APP_PORT=8000DEBUG=false TZ=Asia/Shanghai # PG连接信息POSTGRES_DB=mumuai_novel POSTGRES_USER=johnny POSTGRES_PASSWORD=root POSTGRES_PORT=5432# 日志配置LOG_LEVEL=INFO LOG_TO_FILE=true LOG_FILE_PATH=logs/app.log LOG_MAX_BYTES=10485760LOG_BACKUP_COUNT=30CORS_ORIGINS=["http://localhost:8000","http://127.0.0.1:8000"]# OpenAI 配置OPENAI_API_KEY=your_openai_api_key_here(需要替换)OPENAI_BASE_URL=https://api.openai.com/v1(需要替换)# 默认 AI 配置DEFAULT_AI_PROVIDER=openai DEFAULT_MODEL=gpt-4o-mini(需要替换)DEFAULT_TEMPERATURE=0.7DEFAULT_MAX_TOKENS=32000# LinuxDO OAuth 配置(可选)LINUXDO_CLIENT_ID=11111LINUXDO_CLIENT_SECRET=11111LINUXDO_REDIRECT_URI=http://localhost:8000/api/auth/callback FRONTEND_URL=http://localhost:8000 # 初始管理员(LinuxDO user_id)# INITIAL_ADMIN_LINUXDO_ID=your_linuxdo_user_id# 本地账户登录配置LOCAL_AUTH_ENABLED=true LOCAL_AUTH_USERNAME=admin LOCAL_AUTH_PASSWORD=admin123 LOCAL_AUTH_DISPLAY_NAME=本地管理员 # 会话配置SESSION_EXPIRE_MINUTES=120SESSION_REFRESH_THRESHOLD_MINUTES=30# SMTP默认配置,可在系统设置中被管理员覆盖SMTP_PROVIDER=qq SMTP_HOST=smtp.qq.com [email protected] SMTP_PASSWORD=your-qq-smtp-auth-code SMTP_USE_TLS=false SMTP_USE_SSL=true [email protected] SMTP_FROM_NAME=MuMuAINovel EMAIL_AUTH_ENABLED=true EMAIL_REGISTER_ENABLED=true EMAIL_VERIFICATION_CODE_TTL_MINUTES=10EMAIL_VERIFICATION_RESEND_INTERVAL_SECONDS=60WORKSHOP_MODE=client # 云端服务地址(client模式使用WORKSHOP_CLOUD_URL=https://mumuverse.space:1566 # 云端API请求超时时间(秒)WORKSHOP_API_TIMEOUT=30

Read more

《发现了一种本地AI服务远程管理难题与一种加密隧道解决方案!》

《发现了一种本地AI服务远程管理难题与一种加密隧道解决方案!》

现在用着开源大语言模型、Stable Diffusion这类AI工具的人越来越多了,不少开发者都选在自己家或者公司的本地硬件上搭AI服务,比如带显卡的台式机、Linux服务器,还有NAS设备都行。这么弄确实能完全自己掌控隐私,数据也全在自己手里,但麻烦事儿也来了:怎么才能安全又方便地从外面的网络远程访问、管理这些本地的AI服务呢? 以前常用的端口映射办法吧,不安全;要搭VPN的话,步骤又太复杂,一般人搞不定。今天咱们就聊聊用P2P虚拟组网技术做的那种简单好用的解决办法。 本地部署AI后,常见的远程访问需求包括: 1. 状态监控:在外查看服务的CPU/GPU占用、日志和运行状态。 2. 交互操作:远程使用WebUI(如ChatGPT-Next-Web、Stable Diffusion WebUI)进行推理或生图。 3. 文件管理:安全地传输生成的文件或更新模型。 直接通过公网IP+端口暴露服务,相当于将内网服务置于公网扫描之下,极易成为攻击目标。而商用远程桌面软件通常延迟较高,且不适合长期后台服务管理。 一种思路:如果构建加密的虚拟局域网呢? 理想的方案是,让远程设

文科生封神!Python+AI 零门槛变现:3 天造 App,指令即收入(附脉脉 AI 沙龙干货)

文科生封神!Python+AI 零门槛变现:3 天造 App,指令即收入(附脉脉 AI 沙龙干货)

🎁个人主页:User_芊芊君子 🎉欢迎大家点赞👍评论📝收藏⭐文章 🔍系列专栏:AI 文章目录: * 一、前言:打破“AI是理科生专属”的迷思 * 二、行业新趋势:为什么文科生学Python+AI更有优势? * 2.1 文科生 vs 理科生:AI时代的核心竞争力对比 * 2.2 核心变现逻辑:靠Python+AI,“指令即收入” * 三、Python+AI零基础学习路径(文科生专属版) * 3.1 学习路径流程图 * 3.2 分阶段学习核心内容(新颖且落地) * 阶段1:Python核心基础(7天)—— 只学“AI开发必备” * 阶段2:AI大模型交互(10天)

ToClaw:不是更会炫技的 AI,而是更容易用起来

ToClaw:不是更会炫技的 AI,而是更容易用起来

2026 年开年,Agent 类产品明显变得更热了。无论是开源路线,还是云端服务路线,越来越多产品都在强调一件事:AI 不该只是陪你聊天,而应该开始替你做事。 这也是我最近实测 ToClaw 时最直接的感受。它吸引我的地方,不是“参数更猛”或者“概念更新”,而是它明显在往一个更现实的方向走:把原本偏技术流的 Agent 体验,尽量做成普通办公用户也能直接上手的桌面工具。 上面那张图就是我用ToClaw设计出来的: 官方对 ToClaw 的定位也很直接——它是基于 OpenClaw 深度定制、集成远程控制运行时的 AI 助手,强调“手机一句话,你的电脑自动执行”,核心不是陪聊,而是执行任务。与此同时,ToClaw 官方页也强调了它支持远程控制运行时、AI 直接操作电脑、对接飞书/钉钉/企业微信,以及兼容 OpenClaw 生态等能力。 ToClaw

Skill 构建指南:从零打造 AI 智能体扩展包

Skill 构建指南:从零打造 AI 智能体扩展包 引言 在人工智能时代,如何让智能体具备更强的专业能力和更丰富的工作流程?答案就是 Skill——一种为智能体设计的能力扩展包。本文将详细介绍如何从零开始构建符合规范的 Skill,让你的创意变成可分发的工具。 什么是 Skill? 核心定位 Skill 是被智能体加载和执行的能力扩展包,而非独立运行的应用程序。 执行模式 * Skill 在智能体的会话上下文中被动态加载 * 智能体读取 SKILL.md 的指导,调用 scripts/ 中的脚本,参考 references/ 中的文档 * Skill 的所有交互都通过智能体与用户的对话完成 Skill 提供的能力 * ✅ 专门工作流程(多步骤程序与条件逻辑) * ✅ 工具集成(文件格式与 API 的使用方式) * ✅ 领域专家知识(公司或系统特有的架构与逻辑) * ✅ 打包资源(脚本、参考、资产) Skill