【开源项目】AIRI 一个能陪你打游戏、交谈的开源 AI 伴侣(二次元老婆)

【开源项目】AIRI 一个能陪你打游戏、交谈的开源 AI 伴侣(二次元老婆)

引言

作为一个喜欢折腾开源项目的技术爱好者,最近我试用了 ​​Project AIRI​​——一个能自己部署的虚拟伴侣系统。它不只是聊天机器人,还能陪你打游戏、实时语音互动,甚至作为桌宠常驻桌面。最吸引我的是它的开源属性(MIT 协议)和可定制性,所有数据都在本地运行,隐私无忧。

image.png

正文

1. ​​部署安装:简单三步快速体验​

Project AIRI 支持多平台(Web/macOS/Windows),以下是实测可用的部署方式:

  • ​Windows 一键安装(小白友好)​​在 GitHub Releases 下载 AIRI_0.7.1_windows_amd64-setup.exe,安装后任务栏会出现 AIRI 图标。右键可调整位置(如置底左),设置中绑定 API 后即可对话。
  • ​NAS 部署(低功耗设备实测可行)​​支持 Synology 或树莓派,通过 Node. Js 环境运行。文档提到依赖 DuckDB-WASM 嵌入式数据库,内存占用优化较好,但需注意 WebGPU 加速在 NAS 上可能受限。

​本地运行(推荐开发者)​​克隆代码库并安装依赖(需 Node. Js 18+ 和 pnpm):

git clone https://github.com/moeru-ai/airi cd airi pnpm i pnpm dev:web # 启动浏览器版

首次启动后会提示配置 LLM API(支持 OpenAI、Claude、国产模型如 DeepSeek 等),填入自己的 API Key 即可启用聊天功能。

💡 ​​避坑提示​​:

  • 语音功能需额外配置 TTS/ASR API(如 Azure Speech),自带的免费选项有限;
  • 网页版 Demo(airi. Moeru. Ai)部分功能未开放,建议本地部署体验完整能力。
2. ​​核心功能:不止聊天,还能联机打游戏​
  • ​实时语音 & 多模态交互​
    通过 WebAudio 和 WebRTC 实现低延迟语音对话,麦克风输入可直接转为文本指令。角色模型(Live 2 D/VRM)支持自动眨眼、视线跟踪,比如你移动鼠标时它会“看”向你。
  • ​真正的游戏伙伴​
    • ​《我的世界》​​:通过 airi-minecraft 模块(已合并至主项目),AI 能理解自然语言指令,例如输入 *“帮我建个木屋”*或 “收集 10 个钻石”,它会自主规划路径并操作角色;
    • ​《异星工厂》​​:需加载 autorio 模组,AI 可协助自动化生产链,例如 *“优化电力供应”*或 “扩展铁矿运输带”
  • ​记忆与个性化​
    内置 DuckDB-WASM 数据库存储对话历史,启用 RAG(检索增强生成)后,AI 能记住你的偏好(比如喜欢的游戏或聊天话题)。
image.png
3. ​​技术亮点:开源生态与可扩展性​
  • ​模块化设计​​:子项目如 unspeech(语音处理)、xsai(LLM 接口层)可独立使用,方便集成到其他应用;
  • ​社区驱动​​:鼓励贡献 Live 2 D 模型或游戏插件,已有用户制作了《星露谷物语》的实验性支持;
  • ​隐私优先​​:所有数据留在本地,LLM API 调用可自建代理(如通过 Ollama 本地运行模型)。
image.png

总结

Project AIRI 的野心不仅是复刻一个 “Neuro-sama”,而是打造​​可私有化、可深度定制的数字生命框架​​。它的价值在于开源透明和技术堆栈的实用性(TypeScript + WebGPU + LLM),适合两类人:

  1. ​技术实验者​​:通过扩展游戏模块或集成新 LLM 探索多模态 AI 的边界;
  2. ​数字伴侣爱好者​​:想要一个完全掌控数据、能长期互动的“桌搭搭子”。

项目目前仍在迭代(GitHub 活跃),部分功能如视觉识别还在开发。但如果你愿意动手,它可能是最接近“赛博伙伴”的开源实现。

项目地址:https://github.com/moeru-ai/airi

游戏模块文档:Minecraft 代理 | 异星工厂模组

往期回顾:
🔥【开源项目】我​​在电脑上“养”了个能干活的AI助手:NeuralAgent上手记录

🔥【开源项目】轻量加速利器 HubProxy 自建 Docker、GitHub 下载加速服务

🔥【开源项目】初中生开源神作!BiliTools 能下8K视频、高质量音频,支持AI总结的全能工具

Read more

8卡RTX 5090服务器llama.cpp测试

8 卡 RTX 5090 服务器 完整安装及性能调优指南  8卡RTX 5090服务器 从 NVIDIA驱动安装 → CUDA环境 → llama.cpp编译 → 多GPU测试 的完整、可直接执行流程(基于Ubuntu 22.04 LTS,适配Blackwell架构)。 一、系统与硬件准备(必做) 1.1 系统要求 • 推荐:Ubuntu 22.04 LTS(64位) • 内核:6.8+ HWE内核(5090必须高内核) • 禁用:Nouveau开源驱动(与NVIDIA驱动冲突) 1.2 硬件检查 Bash # 查看8张5090是否被识别 lspci | grep -i nvidia

Llama-3.2-3B步骤详解:Ollama部署后启用GPU加速(CUDA/cuDNN)全流程

Llama-3.2-3B步骤详解:Ollama部署后启用GPU加速(CUDA/cuDNN)全流程 1. 为什么需要GPU加速?——从“能跑”到“跑得快”的关键跃迁 你可能已经用Ollama成功拉起了Llama-3.2-3B,输入几句话就能看到回复,一切看似顺利。但当你连续提问、生成稍长文本,或者尝试多轮对话时,会明显感觉到响应变慢——几秒甚至十几秒的等待,让原本流畅的交互体验打了折扣。 这不是模型能力的问题,而是默认情况下Ollama在CPU上运行。Llama-3.2-3B虽是3B参数量的轻量级模型,但其Transformer结构天然适合并行计算。一块中端消费级显卡(比如RTX 3060或更高),在GPU模式下推理速度可比CPU快3~5倍,显存占用更合理,还能释放出CPU资源去做其他事。 更重要的是,Ollama官方明确支持CUDA加速,且无需手动编译模型或修改源码。整个过程不涉及复杂配置文件编辑,也不要求你成为CUDA专家——只要你的机器有NVIDIA显卡、驱动正常、CUDA环境基础就绪,就能完成切换。本文将带你从零开始,一步步验证环境、启用加速、实测对比,并解决你最可能卡

GitHub Copilot Pro 学生认证免费订阅及VS Code集成完整教程

GitHub Copilot Pro 学生认证免费订阅及VS Code集成完整教程

GitHub Copilot Pro 学生认证免费订阅及VS Code集成完整教程 一、学生认证资格与前期准备 1.1 认证资格要求 GitHub Copilot Pro 为经官方验证的全日制学生、在职教师及热门开源项目维护者提供免费订阅权限。认证需满足以下核心条件: * 学生需提供有效学籍证明(学生卡/学信网认证) * 教师需提供工作证/教师资格证 * 使用学校官方邮箱(以.edu或.edu.cn结尾) * 账户需通过双重身份认证(2FA) 1.2 账户设置准备 1. 绑定教育邮箱 在GitHub账户设置中添加学校邮箱,并完成验证: * 进入Settings → Emails → Add email address * 输入形如[email protected]的邮箱 * 登录学校邮箱查收验证邮件并确认 2. 完善个人信息 在Profile → Edit profile中填写:

深度解析:智能体、工作流与AIGC的落地实践及未来演进

深度解析:智能体、工作流与AIGC的落地实践及未来演进

在AI技术快速落地的当下,智能体(Agent)、工作流(Workflow)与AIGC已成为开发者、企业技术架构师绕不开的核心概念。无论是自动化运维、智能办公系统搭建,还是内容生成类应用开发,这三者的合理选型与协同设计,直接决定了系统的效率、灵活性与可扩展性。 不同于面向大众的科普,本文将从技术落地视角,拆解智能体与工作流的核心差异、技术实现路径,同时深入探讨AIGC当前的技术瓶颈与未实现的关键能力,为技术从业者提供选型参考与趋势预判。 一、核心概念辨析:智能体(Agent)vs 工作流(Workflow) 在实际项目开发中,不少开发者会混淆智能体与工作流的应用场景,导致技术选型偏差——要么用工作流处理复杂动态任务,出现流程僵化问题;要么盲目引入智能体,增加系统复杂度与算力成本。两者的核心区别,本质是“规则驱动”与“目标驱动”的逻辑差异。 1. 工作流(Workflow):结构化任务的标准化自动化 工作流的核心定位是“结构化任务的流程化自动化”,其本质是通过预定义的规则、步骤与触发条件,将重复、固定的业务流程转化为可自动执行的链路,核心价值在于“