MiroFish:多智能体技术的开源AI推演预测引擎

MiroFish:多智能体技术的开源AI推演预测引擎
在这里插入图片描述

MiroFish是一款基于多智能体技术的开源AI预测引擎,能够基于现实种子信息构建平行数字世界进行仿真推演。下面为您详细介绍这个项目以及本地部署和使用流程。

一、MiroFish项目概述

核心功能

  1. 种子信息驱动预测:支持从突发新闻、政策草案、金融信号、数据分析报告或小说故事中提取种子信息,生成预测任务输入。
  2. 平行数字世界构建:自动搭建高保真仿真环境,让具备独立人格、长期记忆与行为逻辑的智能体在其中自由交互和演化。
  3. 自然语言预测交互:用户可直接用自然语言描述预测需求,无需手工编排复杂规则。
  4. 预测报告生成:模拟完成后输出详尽预测报告,并由ReportAgent与仿真环境进行深度交互。
  5. 模拟世界深度对话:支持与模拟世界中任意角色对话,也可以与报告代理继续追问。

技术架构

  • GraphRAG + 长期记忆:种子材料自动拆解成实体关系、人设画像、事件链,Zep Cloud驱动记忆
  • OASIS仿真引擎:基于CAMEL-AI团队开源的OASIS引擎,支持数千Agent并行运行
  • ReACT模式驱动:ReportAgent采用Reasoning & Acting范式,主动调研而非被动生成
  • 双平台并行模拟:两个仿真平台同时运行,互相验证,动态更新时序记忆

应用场景

  • 舆情推演:对热点事件、校园舆情、品牌公关风险等进行动态模拟与走势预测
  • 政策与决策预演:在零风险环境中对政策、公关方案或复杂决策进行试错和预演
  • 金融与时政预测:金融方向推演预测、时政要闻推演预测
  • 文学与创意仿真:小说剧情延展、结局推演,如《红楼梦》失传结局预测
  • 多智能体研究:探索群体涌现、社会仿真和多智能体交互机制

二、本地部署详细指南

环境要求

  • Node.js:18及以上版本
  • Python:3.11至3.12版本(不要使用3.13)
  • uv:最新版Python包管理器
  • Docker & Docker Compose(如果选择Docker部署)

部署方式对比

部署方式优点缺点适用场景
Docker部署快速便捷、环境一致、隔离性好定制化程度较低快速体验、生产环境
源码部署深度定制、灵活性高依赖环境复杂开发调试、二次开发

Docker部署步骤(推荐新手)

  1. 访问服务
    • 前端界面:http://localhost:3000
    • 后端API:http://localhost:5001

一键启动

docker compose up -d

配置环境变量

cp .env.example .env 

编辑.env文件,填入以下关键配置:

# LLM配置(支持任意兼容OpenAI SDK格式的API)LLM_API_KEY=your_api_key_here LLM_BASE_URL=your_api_base_url LLM_MODEL_NAME=qwen-plus # 或其他模型# Zep Cloud配置(用于GraphRAG知识图谱)ZEP_API_KEY=your_zep_api_key 

克隆仓库

git clone https://github.com/666ghj/MiroFish.git cd MiroFish 

源码部署步骤(更灵活)

安装依赖并启动

# 一键安装所有依赖npm run setup:all # 启动开发服务器npm run dev 

克隆并配置项目

git clone https://github.com/666ghj/MiroFish.git cd MiroFish cp .env.example .env # 编辑.env文件配置API密钥

安装uv包管理器

curl-LsSf https://astral.sh/uv/install.sh |shsource ~/.bashrc 

安装Python 3.11

sudoaptinstall-y python3.11 python3.11-venv python3.11-dev 

安装基础依赖

# Ubuntu系统示例sudoapt update &&sudoapt upgrade -ysudoaptinstall-ycurlgit build-essential # 安装Node.js 18curl-fsSL https://deb.nodesource.com/setup_18.x |sudo-Ebash - sudoaptinstall-y nodejs # 验证安装node-v# 应输出v18.x.xnpm-v# 应输出9.x或更高

三、完整使用工作流程

五步标准化工作流程

步骤名称核心任务输出成果
Step 01知识初始化上传种子材料,系统通过LLM自动梳理本体结构关键节点识别、实体关系图谱
Step 02仿真编排生成性格迥异的Profile,配置时间步长、事件触发逻辑智能体人设配置、环境参数设置
Step 03实时演推启动模拟,观察情绪扩散路径,捕捉关键节点动态图谱可视化、实时行动日志
Step 04AI深度诊断ReportAgent介入,将非结构化数据转化为逻辑严密的叙事结构化预测报告、风险分析
Step 05决策下达获得包含"最佳回应节点"、"风险触发带"的终极报告可执行洞察、对策收益预测

详细操作流程

  1. 上传种子材料
    • 支持格式:PDF、MD、TXT等非结构化数据
    • 内容类型:新闻报道、政策草案、金融报告、小说文本等
    • 示例:上传《平凡的世界》PDF文件,假设"田晓霞和贺秀莲没有去世"的场景
  2. 描述预测需求
    • 用自然语言输入模拟或预测需求
    • 示例:“如果武汉大学发布撤销肖某处分的公告,会引发什么舆情走向?”
  3. 系统自动构建
    • 图谱构建:提取实体关系,形成语义体系,进行关联度分析
    • 环境搭建:生成Agent人设,预期Agent总数可达77个(实际生成61个)
    • 双平台配置:生成模拟配置,初始激活编排
  4. 运行模拟
    • 设置模拟轮数:默认100轮,建议先尝试20-40轮以减少等待时间和错误概率
    • 观察智能体交互:在动态图谱中观察情绪的扩散路径
    • 实时监控:右侧显示清晰行动路线,观察不同Agent在模拟世界中的活跃状态
  5. 查看结果
    • 预测报告:ReportAgent生成的详细分析报告
    • 深度交互:与模拟世界中任意角色对话,或与ReportAgent继续追问
    • 示例报告内容:包含叙事范式转变、社会心理补偿机制、情感支持成为核心驱动力等深度分析
  • 模拟轮数:先进行小于40轮的模拟尝试,模拟消耗较大

四、应用案例

案例1:武汉大学舆情推演

  • 种子材料:武汉大学相关舆情报告
  • 预测需求:模拟撤销处分公告后的舆情演化
  • 输出结果:舆情爆发、发展和变化趋势预测,为决策提供参考

案例2:《平凡的世界》理想化结局模拟

  • 种子材料:《平凡的世界》PDF文件
  • 预测需求:假设田晓霞和贺秀莲没有去世的故事走向
  • 输出洞察
    1. 叙事范式从"苦难美学"转向"圆满叙事"
    2. 情感支持成为个体阶层跨越的关键加速器
    3. 重塑乡村社区的集体记忆与公共话语

案例3:特斯拉财报股价预测

  • 种子材料:特斯拉最近的分析报告
  • 预测需求:发布财报当日股价涨跌预测
  • 模拟过程:生成华尔街、分析师、Elon Musk等26个不同人设的Agent
  • 预测结果:多家机构对特斯拉股价的态度转为悲观

Read more

2026年1月16日- 白嫖Claude Opus 4.5!Kiro + AIClient-2-API 让你免费用上顶级AI

2026年1月16日- 白嫖Claude Opus 4.5!Kiro + AIClient-2-API 让你免费用上顶级AI

前言 在AI辅助开发工具快速发展的今天,各大厂商纷纷推出自己的AI编程助手。好家伙,继GitHub Copilot、Cursor、Claude Code之后,AWS也按捺不住了,在2025年7月正式推出了自家的AI IDE——Kiro。这款工具不仅支持Claude Sonnet 4、Claude Opus 4.5等顶级大模型,而且新用户注册就送550积分,相当于白嫖数百次高质量AI对话,这对于想要体验顶级AI编程能力的小伙伴来说简直是福音。 但问题来了,Kiro目前只能在其IDE内部使用,如果我们想在其他工具比如Cherry Studio、Claude Code中使用这些免费额度怎么办?这就需要借助一个神器——AIClient-2-API。这个开源项目可以将Kiro等AI客户端的能力转换为标准的OpenAI API格式,让我们能够在任何支持OpenAI API的第三方工具中使用Kiro的免费额度,实现真正的"白嫖"顶级大模型。 最近两天我解锁了 Kiro 搭配 AIClient-2-API 的 “邪修玩法”,今天就手把手带大家实操:从注册 Kiro 账号、

人工智能:自然语言处理在金融领域的应用与实战

人工智能:自然语言处理在金融领域的应用与实战

人工智能:自然语言处理在金融领域的应用与实战 学习目标 💡 理解自然语言处理(NLP)在金融领域的应用场景和重要性 💡 掌握金融领域NLP应用的核心技术(如文本分类、情感分析、风险评估) 💡 学会使用前沿模型(如BERT、GPT-3)进行金融文本分析 💡 理解金融领域的特殊挑战(如金融术语、数据噪声、实时性要求高) 💡 通过实战项目,开发一个金融风险评估应用 重点内容 * 金融领域NLP应用的主要场景 * 核心技术(文本分类、情感分析、风险评估) * 前沿模型(BERT、GPT-3)在金融领域的使用 * 金融领域的特殊挑战 * 实战项目:金融风险评估应用开发 一、金融领域NLP应用的主要场景 1.1 文本分类 1.1.1 文本分类的基本概念 文本分类是对金融文本进行分类的过程。在金融领域,文本分类的主要应用场景包括: * 新闻分类:对金融新闻进行分类(如“股票新闻”、“债券新闻”

【Coze智能体开发】(三)解锁 Coze 智能体超能力:插件 + 知识库 + 数据库全解析,让 AI 从 “会聊天“ 到 “能办事“!

【Coze智能体开发】(三)解锁 Coze 智能体超能力:插件 + 知识库 + 数据库全解析,让 AI 从 “会聊天“ 到 “能办事“!

目录 编辑 前言 一、Coze 资源全景:不止于 "聊天" 的能力延伸 二、插件:给智能体装上 "手脚",让 AI 能 "动手办事" 2.1 什么是插件?—— 智能体的 "工具扩展包" 2.2 插件的分类:按需选择,精准赋能 1. 按功能场景分类 2. 按收费方式分类 2.3 插件的使用:3 步快速集成,零代码也能上手 第一步:创建插件智能体 第二步:添加插件(核心步骤)

【AI实战】拒绝“伪”提效:从 Copilot 到 AI Agent,重塑全栈开发者的“核武器”

【AI实战】拒绝“伪”提效:从 Copilot 到 AI Agent,重塑全栈开发者的“核武器”

前言:2026,我们不再只是“对话” 站在2026年的开端回望,短短三年,AI对于开发者而言,已经从最初那个会写“冒泡排序”的聊天机器人,进化为嵌入在 IDE 每一个像素中的“硅基合伙人”。 作为一名摸爬滚打多年的全栈开发者,我经历了从“怀疑 AI 写出的代码能不能跑”到“离开 AI 甚至不想打开编辑器”的心路历程。在这个由算法定义生产力的时代,AI 不仅仅是工具,更是我们在数字世界的“外骨骼”。 本文将结合我个人的实战经验,探讨如何利用 Python 和大模型构建一个简易的 “代码审计 AI Agent”,并聊聊 AI 是如何重塑我们的开发流与思维模型的。 一、 从“补全代码”到“理解意图”:AI 编程的质变 在 2023 年前后,我们对