基于 GLM 4.7 与 Flutter 开发 AI 漫剧 APP 实战
项目背景
现有 AI 漫剧平台多限于 PC Web 端,缺乏移动端创作工具。为验证 AI Coding 在移动端应用开发中的可行性,本项目耗时 8 天完成 MVP 版本,命名为'漫导'。
该应用支持根据一句话灵感创建剧本、角色、场景,自动生成分镜图片和视频,并合成完整漫剧视频。

工具选择
- 终端工具: Claude Code (CLI 全能编程助手)
- 模型: 智谱 GLM 4.7
- 前端框架: Flutter (Dart)
采用 ReAct 模式 (Reasoning + Acting) 实现规划与执行循环,避免代码硬编码。
开发历程
1. 架构设计与提示词
首先编写提示词告知任务目标,并规划技术栈以确保快速出原型。
提示词:现在帮我编写一个安卓软件,用途是制作 AI 漫剧,和用户对话的方式来了解用户想制作什么样子的漫剧,对话大模型使用的是 glm 4.7,相关的接口文档都保存在这个目录下面 director_ai/docs/图像生成 API 接口文档.md director_ai/docs/视频处理全集.md
核心技术栈推荐:
- 开发工具:Claude Code
- 前端框架:Flutter
- 核心大脑:GLM-4.7
- 多模态接口:tu-zi.com
2. 基础搭建与调试
通过一系列指令完成基础搭建,无需手动干预细节。约 10 分钟生成由零到一的 APP 雏形。
启动后界面包含聊天框(支持相机图片上传)、对话记录等功能,UI 简约可用。

3. 功能演示
输入'生成一个小姐姐做草莓蛋糕的视频',APP 流程如下:
- 创建剧本
- 生成角色图(三视图)
- 生成场景分镜
- 生成视频

人物一致性通过确定主角三视图贯穿整个剧本解决。
4. 异常处理与优化
部分视频 API 会触发公共安全审核导致失败。GLM 4.7 会根据日志重试并弱化违规提示词。
例如 PUBLIC_ERROR_AUDIO_FILTERED 错误,系统会自动调整音频描述以规避过滤。
{


