MiroFish:多智能体技术的开源AI推演预测引擎

MiroFish:多智能体技术的开源AI推演预测引擎
在这里插入图片描述

MiroFish是一款基于多智能体技术的开源AI预测引擎,能够基于现实种子信息构建平行数字世界进行仿真推演。下面为您详细介绍这个项目以及本地部署和使用流程。

一、MiroFish项目概述

核心功能

  1. 种子信息驱动预测:支持从突发新闻、政策草案、金融信号、数据分析报告或小说故事中提取种子信息,生成预测任务输入。
  2. 平行数字世界构建:自动搭建高保真仿真环境,让具备独立人格、长期记忆与行为逻辑的智能体在其中自由交互和演化。
  3. 自然语言预测交互:用户可直接用自然语言描述预测需求,无需手工编排复杂规则。
  4. 预测报告生成:模拟完成后输出详尽预测报告,并由ReportAgent与仿真环境进行深度交互。
  5. 模拟世界深度对话:支持与模拟世界中任意角色对话,也可以与报告代理继续追问。

技术架构

  • GraphRAG + 长期记忆:种子材料自动拆解成实体关系、人设画像、事件链,Zep Cloud驱动记忆
  • OASIS仿真引擎:基于CAMEL-AI团队开源的OASIS引擎,支持数千Agent并行运行
  • ReACT模式驱动:ReportAgent采用Reasoning & Acting范式,主动调研而非被动生成
  • 双平台并行模拟:两个仿真平台同时运行,互相验证,动态更新时序记忆

应用场景

  • 舆情推演:对热点事件、校园舆情、品牌公关风险等进行动态模拟与走势预测
  • 政策与决策预演:在零风险环境中对政策、公关方案或复杂决策进行试错和预演
  • 金融与时政预测:金融方向推演预测、时政要闻推演预测
  • 文学与创意仿真:小说剧情延展、结局推演,如《红楼梦》失传结局预测
  • 多智能体研究:探索群体涌现、社会仿真和多智能体交互机制

二、本地部署详细指南

环境要求

  • Node.js:18及以上版本
  • Python:3.11至3.12版本(不要使用3.13)
  • uv:最新版Python包管理器
  • Docker & Docker Compose(如果选择Docker部署)

部署方式对比

部署方式优点缺点适用场景
Docker部署快速便捷、环境一致、隔离性好定制化程度较低快速体验、生产环境
源码部署深度定制、灵活性高依赖环境复杂开发调试、二次开发

Docker部署步骤(推荐新手)

  1. 访问服务
    • 前端界面:http://localhost:3000
    • 后端API:http://localhost:5001

一键启动

docker compose up -d

配置环境变量

cp .env.example .env 

编辑.env文件,填入以下关键配置:

# LLM配置(支持任意兼容OpenAI SDK格式的API)LLM_API_KEY=your_api_key_here LLM_BASE_URL=your_api_base_url LLM_MODEL_NAME=qwen-plus # 或其他模型# Zep Cloud配置(用于GraphRAG知识图谱)ZEP_API_KEY=your_zep_api_key 

克隆仓库

git clone https://github.com/666ghj/MiroFish.git cd MiroFish 

源码部署步骤(更灵活)

安装依赖并启动

# 一键安装所有依赖npm run setup:all # 启动开发服务器npm run dev 

克隆并配置项目

git clone https://github.com/666ghj/MiroFish.git cd MiroFish cp .env.example .env # 编辑.env文件配置API密钥

安装uv包管理器

curl-LsSf https://astral.sh/uv/install.sh |shsource ~/.bashrc 

安装Python 3.11

sudoaptinstall-y python3.11 python3.11-venv python3.11-dev 

安装基础依赖

# Ubuntu系统示例sudoapt update &&sudoapt upgrade -ysudoaptinstall-ycurlgit build-essential # 安装Node.js 18curl-fsSL https://deb.nodesource.com/setup_18.x |sudo-Ebash - sudoaptinstall-y nodejs # 验证安装node-v# 应输出v18.x.xnpm-v# 应输出9.x或更高

三、完整使用工作流程

五步标准化工作流程

步骤名称核心任务输出成果
Step 01知识初始化上传种子材料,系统通过LLM自动梳理本体结构关键节点识别、实体关系图谱
Step 02仿真编排生成性格迥异的Profile,配置时间步长、事件触发逻辑智能体人设配置、环境参数设置
Step 03实时演推启动模拟,观察情绪扩散路径,捕捉关键节点动态图谱可视化、实时行动日志
Step 04AI深度诊断ReportAgent介入,将非结构化数据转化为逻辑严密的叙事结构化预测报告、风险分析
Step 05决策下达获得包含"最佳回应节点"、"风险触发带"的终极报告可执行洞察、对策收益预测

详细操作流程

  1. 上传种子材料
    • 支持格式:PDF、MD、TXT等非结构化数据
    • 内容类型:新闻报道、政策草案、金融报告、小说文本等
    • 示例:上传《平凡的世界》PDF文件,假设"田晓霞和贺秀莲没有去世"的场景
  2. 描述预测需求
    • 用自然语言输入模拟或预测需求
    • 示例:“如果武汉大学发布撤销肖某处分的公告,会引发什么舆情走向?”
  3. 系统自动构建
    • 图谱构建:提取实体关系,形成语义体系,进行关联度分析
    • 环境搭建:生成Agent人设,预期Agent总数可达77个(实际生成61个)
    • 双平台配置:生成模拟配置,初始激活编排
  4. 运行模拟
    • 设置模拟轮数:默认100轮,建议先尝试20-40轮以减少等待时间和错误概率
    • 观察智能体交互:在动态图谱中观察情绪的扩散路径
    • 实时监控:右侧显示清晰行动路线,观察不同Agent在模拟世界中的活跃状态
  5. 查看结果
    • 预测报告:ReportAgent生成的详细分析报告
    • 深度交互:与模拟世界中任意角色对话,或与ReportAgent继续追问
    • 示例报告内容:包含叙事范式转变、社会心理补偿机制、情感支持成为核心驱动力等深度分析
  • 模拟轮数:先进行小于40轮的模拟尝试,模拟消耗较大

四、应用案例

案例1:武汉大学舆情推演

  • 种子材料:武汉大学相关舆情报告
  • 预测需求:模拟撤销处分公告后的舆情演化
  • 输出结果:舆情爆发、发展和变化趋势预测,为决策提供参考

案例2:《平凡的世界》理想化结局模拟

  • 种子材料:《平凡的世界》PDF文件
  • 预测需求:假设田晓霞和贺秀莲没有去世的故事走向
  • 输出洞察
    1. 叙事范式从"苦难美学"转向"圆满叙事"
    2. 情感支持成为个体阶层跨越的关键加速器
    3. 重塑乡村社区的集体记忆与公共话语

案例3:特斯拉财报股价预测

  • 种子材料:特斯拉最近的分析报告
  • 预测需求:发布财报当日股价涨跌预测
  • 模拟过程:生成华尔街、分析师、Elon Musk等26个不同人设的Agent
  • 预测结果:多家机构对特斯拉股价的态度转为悲观

Read more

『MCP开发工具』Chrome DevTools MCP完全指南:AI驱动的浏览器自动化调试实战

『MCP开发工具』Chrome DevTools MCP完全指南:AI驱动的浏览器自动化调试实战

📣读完这篇文章里你能收获到 1. 📁 掌握Chrome DevTools MCP的安装配置 2. 🐍 学会使用MCP协议让AI自动操作Chrome进行动态调试 3. 🌐 通过真实JS逆向案例掌握AI辅助分析的实战技巧 4. 🖥️ 了解AI自动化调试在多个场景中的应用 文章目录 * 前言 * 一、Chrome DevTools MCP核心能力 * 二、Chrome DevTools MCP安装 * 2.1 安装前准备 * 2.2 安装MCP插件 * 2.3 验证安装 * 三、实战案例:JS逆向分析 * 3.1 靶场介绍 * 3.2 传统方法 vs AI方法 * 3.3 AI自动化分析实战 * 3.4 实际执行结果 * 四、高级应用场景 * 4.

Flutter 组件 deepseek 的适配 鸿蒙Harmony 实战 - 驾驭国产最强大模型 API、实现鸿蒙端 AI 原生对话与流式渲染的高效集成方案

Flutter 组件 deepseek 的适配 鸿蒙Harmony 实战 - 驾驭国产最强大模型 API、实现鸿蒙端 AI 原生对话与流式渲染的高效集成方案

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 组件 deepseek 的适配 鸿蒙Harmony 实战 - 驾驭国产最强大模型 API、实现鸿蒙端 AI 原生对话与流式渲染的高效集成方案 前言 在 AI 浪潮席卷全球的今天,大模型(LLM)已成为移动应用创新的核心引擎。而在众多的国产模型中,DeepSeek 凭借其卓越的算法效率和极致的性价比,正成为开发者们的“真香”选择。 将 DeepSeek 这种顶尖的认知能力,植入到全面拥抱智能化、万物互联的鸿蒙(OpenHarmony)系统中,将碰撞出怎样的火花? deepseek 库为 Flutter 提供了极简的 API 封装,它完美支持了 SSE(流式事件流)响应,能让你的鸿蒙 App

Flutter 组件 genkit 的适配 鸿蒙Harmony 深度进阶 - 驾驭模型幻觉审计、实现鸿蒙端多维 RAG 向量对齐与端云协同 AI 指挥中心方案

Flutter 组件 genkit 的适配 鸿蒙Harmony 深度进阶 - 驾驭模型幻觉审计、实现鸿蒙端多维 RAG 向量对齐与端云协同 AI 指挥中心方案

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 组件 genkit 的适配 鸿蒙Harmony 深度进阶 - 驾驭模型幻觉审计、实现鸿蒙端多维 RAG 向量对齐与端云协同 AI 指挥中心方案 前言 在前文中,我们利用 genkit 实现了基础的 AI 模型流式调用(Streaming)与 Prompt 工程。但在真正的“专业级医疗诊断辅助”、“金融量化分析报告生成”或“大型智能客服矩阵”场景中。简单的模型调用仅仅是起点。面对大模型不可避免的“幻觉(Hallucinations)”问题。面对如何在鸿蒙(OpenHarmony)端实现本地向量库(Vector Store)与云端知识库的实时同步。面对如何在不同算力的设备(从手环到大屏)上分配不同的 AI

32款“Claw系”国产AI神器全收录 + 官方下载链接,收藏这一篇就够了!

【腾讯系】7款 # 产品名称 一句话简介 官网/下载 1 腾讯 WorkBuddy 全场景AI工作助手 https://pan.quark.cn/s/3937acbfc858 2 腾讯 QClaw 通用型AI智能体框架 https://pan.quark.cn/s/3c59da0b9220 3 腾讯龙虾管家 企业级AI运维管理 待核实 4 腾讯云保安 云安全AI防护智能体 cloud.tencent.com 5 腾讯乐享知识库·龙虾版 企业知识库AI增强版 待核实 6 腾讯企点Claw 智能客服与营销AI qidian.qq.com 7 腾讯会议Claw 会议纪要+