MiroFish:多智能体技术的开源AI推演预测引擎

MiroFish:多智能体技术的开源AI推演预测引擎
在这里插入图片描述

MiroFish是一款基于多智能体技术的开源AI预测引擎,能够基于现实种子信息构建平行数字世界进行仿真推演。下面为您详细介绍这个项目以及本地部署和使用流程。

一、MiroFish项目概述

核心功能

  1. 种子信息驱动预测:支持从突发新闻、政策草案、金融信号、数据分析报告或小说故事中提取种子信息,生成预测任务输入。
  2. 平行数字世界构建:自动搭建高保真仿真环境,让具备独立人格、长期记忆与行为逻辑的智能体在其中自由交互和演化。
  3. 自然语言预测交互:用户可直接用自然语言描述预测需求,无需手工编排复杂规则。
  4. 预测报告生成:模拟完成后输出详尽预测报告,并由ReportAgent与仿真环境进行深度交互。
  5. 模拟世界深度对话:支持与模拟世界中任意角色对话,也可以与报告代理继续追问。

技术架构

  • GraphRAG + 长期记忆:种子材料自动拆解成实体关系、人设画像、事件链,Zep Cloud驱动记忆
  • OASIS仿真引擎:基于CAMEL-AI团队开源的OASIS引擎,支持数千Agent并行运行
  • ReACT模式驱动:ReportAgent采用Reasoning & Acting范式,主动调研而非被动生成
  • 双平台并行模拟:两个仿真平台同时运行,互相验证,动态更新时序记忆

应用场景

  • 舆情推演:对热点事件、校园舆情、品牌公关风险等进行动态模拟与走势预测
  • 政策与决策预演:在零风险环境中对政策、公关方案或复杂决策进行试错和预演
  • 金融与时政预测:金融方向推演预测、时政要闻推演预测
  • 文学与创意仿真:小说剧情延展、结局推演,如《红楼梦》失传结局预测
  • 多智能体研究:探索群体涌现、社会仿真和多智能体交互机制

二、本地部署详细指南

环境要求

  • Node.js:18及以上版本
  • Python:3.11至3.12版本(不要使用3.13)
  • uv:最新版Python包管理器
  • Docker & Docker Compose(如果选择Docker部署)

部署方式对比

部署方式优点缺点适用场景
Docker部署快速便捷、环境一致、隔离性好定制化程度较低快速体验、生产环境
源码部署深度定制、灵活性高依赖环境复杂开发调试、二次开发

Docker部署步骤(推荐新手)

  1. 访问服务
    • 前端界面:http://localhost:3000
    • 后端API:http://localhost:5001

一键启动

docker compose up -d

配置环境变量

cp .env.example .env 

编辑.env文件,填入以下关键配置:

# LLM配置(支持任意兼容OpenAI SDK格式的API)LLM_API_KEY=your_api_key_here LLM_BASE_URL=your_api_base_url LLM_MODEL_NAME=qwen-plus # 或其他模型# Zep Cloud配置(用于GraphRAG知识图谱)ZEP_API_KEY=your_zep_api_key 

克隆仓库

git clone https://github.com/666ghj/MiroFish.git cd MiroFish 

源码部署步骤(更灵活)

安装依赖并启动

# 一键安装所有依赖npm run setup:all # 启动开发服务器npm run dev 

克隆并配置项目

git clone https://github.com/666ghj/MiroFish.git cd MiroFish cp .env.example .env # 编辑.env文件配置API密钥

安装uv包管理器

curl-LsSf https://astral.sh/uv/install.sh |shsource ~/.bashrc 

安装Python 3.11

sudoaptinstall-y python3.11 python3.11-venv python3.11-dev 

安装基础依赖

# Ubuntu系统示例sudoapt update &&sudoapt upgrade -ysudoaptinstall-ycurlgit build-essential # 安装Node.js 18curl-fsSL https://deb.nodesource.com/setup_18.x |sudo-Ebash - sudoaptinstall-y nodejs # 验证安装node-v# 应输出v18.x.xnpm-v# 应输出9.x或更高

三、完整使用工作流程

五步标准化工作流程

步骤名称核心任务输出成果
Step 01知识初始化上传种子材料,系统通过LLM自动梳理本体结构关键节点识别、实体关系图谱
Step 02仿真编排生成性格迥异的Profile,配置时间步长、事件触发逻辑智能体人设配置、环境参数设置
Step 03实时演推启动模拟,观察情绪扩散路径,捕捉关键节点动态图谱可视化、实时行动日志
Step 04AI深度诊断ReportAgent介入,将非结构化数据转化为逻辑严密的叙事结构化预测报告、风险分析
Step 05决策下达获得包含"最佳回应节点"、"风险触发带"的终极报告可执行洞察、对策收益预测

详细操作流程

  1. 上传种子材料
    • 支持格式:PDF、MD、TXT等非结构化数据
    • 内容类型:新闻报道、政策草案、金融报告、小说文本等
    • 示例:上传《平凡的世界》PDF文件,假设"田晓霞和贺秀莲没有去世"的场景
  2. 描述预测需求
    • 用自然语言输入模拟或预测需求
    • 示例:“如果武汉大学发布撤销肖某处分的公告,会引发什么舆情走向?”
  3. 系统自动构建
    • 图谱构建:提取实体关系,形成语义体系,进行关联度分析
    • 环境搭建:生成Agent人设,预期Agent总数可达77个(实际生成61个)
    • 双平台配置:生成模拟配置,初始激活编排
  4. 运行模拟
    • 设置模拟轮数:默认100轮,建议先尝试20-40轮以减少等待时间和错误概率
    • 观察智能体交互:在动态图谱中观察情绪的扩散路径
    • 实时监控:右侧显示清晰行动路线,观察不同Agent在模拟世界中的活跃状态
  5. 查看结果
    • 预测报告:ReportAgent生成的详细分析报告
    • 深度交互:与模拟世界中任意角色对话,或与ReportAgent继续追问
    • 示例报告内容:包含叙事范式转变、社会心理补偿机制、情感支持成为核心驱动力等深度分析
  • 模拟轮数:先进行小于40轮的模拟尝试,模拟消耗较大

四、应用案例

案例1:武汉大学舆情推演

  • 种子材料:武汉大学相关舆情报告
  • 预测需求:模拟撤销处分公告后的舆情演化
  • 输出结果:舆情爆发、发展和变化趋势预测,为决策提供参考

案例2:《平凡的世界》理想化结局模拟

  • 种子材料:《平凡的世界》PDF文件
  • 预测需求:假设田晓霞和贺秀莲没有去世的故事走向
  • 输出洞察
    1. 叙事范式从"苦难美学"转向"圆满叙事"
    2. 情感支持成为个体阶层跨越的关键加速器
    3. 重塑乡村社区的集体记忆与公共话语

案例3:特斯拉财报股价预测

  • 种子材料:特斯拉最近的分析报告
  • 预测需求:发布财报当日股价涨跌预测
  • 模拟过程:生成华尔街、分析师、Elon Musk等26个不同人设的Agent
  • 预测结果:多家机构对特斯拉股价的态度转为悲观

Read more

鸿蒙 AI App 的技术架构解析

鸿蒙 AI App 的技术架构解析

子玥酱(掘金 / 知乎 / ZEEKLOG / 简书 同名) 大家好,我是子玥酱,一名长期深耕在一线的前端程序媛 👩‍💻。曾就职于多家知名互联网大厂,目前在某国企负责前端软件研发相关工作,主要聚焦于业务型系统的工程化建设与长期维护。 我持续输出和沉淀前端领域的实战经验,日常关注并分享的技术方向包括前端工程化、小程序、React / RN、Flutter、跨端方案, 在复杂业务落地、组件抽象、性能优化以及多端协作方面积累了大量真实项目经验。 技术方向:前端 / 跨端 / 小程序 / 移动端工程化 内容平台:掘金、知乎、ZEEKLOG、简书 创作特点:实战导向、源码拆解、少空谈多落地 文章状态:长期稳定更新,大量原创输出 我的内容主要围绕 前端技术实战、真实业务踩坑总结、框架与方案选型思考、行业趋势解读 展开。文章不会停留在“API 怎么用”,而是更关注为什么这么设计、在什么场景下容易踩坑、

By Ne0inhk
AI的提示词专栏:用 Prompt 进行数据清洗,缺失值、异常值自动标注

AI的提示词专栏:用 Prompt 进行数据清洗,缺失值、异常值自动标注

AI的提示词专栏:用 Prompt 进行数据清洗,缺失值、异常值自动标注 本文围绕 Prompt 在数据清洗中缺失值与异常值自动标注的应用展开,先阐述 Prompt 驱动数据清洗的优势,即降低编程门槛、支持个性化规则与多格式数据适配。接着分两部分详细讲解实践:缺失值标注部分,拆解核心需求要素,提供基础标注(返回数据)与带业务逻辑标注(生成 Python 代码)示例,并给出优化技巧;异常值标注部分,明确判断维度,展示数值范围与逻辑关联类标注示例,附带避坑指南。还介绍了不同工具的 Prompt 适配方式与落地注意事项,最后设计练习题与思考题辅助巩固。整体内容兼具理论指导与实操性,助力读者掌握 Prompt 清洗数据技能。 人工智能专栏介绍     人工智能学习合集专栏是 AI 学习者的实用工具。它像一个全面的 AI 知识库,把提示词设计、AI 创作、智能绘图等多个细分领域的知识整合起来。无论你是刚接触 AI

By Ne0inhk
Flutter 组件 google_generative_language_api 适配鸿蒙 HarmonyOS 实战:生成式 AI 集成,构建大语言模型调度与全场景智能推理治理架构

Flutter 组件 google_generative_language_api 适配鸿蒙 HarmonyOS 实战:生成式 AI 集成,构建大语言模型调度与全场景智能推理治理架构

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 组件 google_generative_language_api 适配鸿蒙 HarmonyOS 实战:生成式 AI 集成,构建大语言模型调度与全场景智能推理治理架构 前言 在鸿蒙(OpenHarmony)生态迈向全场景 AI 赋能、涉及高效的语义理解、自动化内容生成及严苛的端云协同智能隐私保护背景下,如何实现一套既能深度对接 Google 生成式语言模型(如 Gemini、PaLM)、又能保障异步请求高响应性且具备多模态输入处理能力的“AI 调度中枢”,已成为决定应用智能化水平与用户体验代差的关键。在鸿蒙设备这类强调分布式协同与端侧算力按需分配的环境下,如果应用依然采用低效的 REST 手写拼接,由于由于 payload 结构复杂性,极易由于由于“协议解析异常”导致鸿蒙应用在大模型推理环节发生由于由于由于由于通讯阻塞。 我们需要一种能够统一模型调用语义、支持流式(Streaming)响应且符合鸿蒙异步异步并发范式的

By Ne0inhk