开源AI桌宠AIRI完整部署指南

开源AI桌宠AIRI完整部署指南
本文手把手记录了 AIRI 的快速部署全流程:从设置中文界面、接入阿里百炼 API,到配置本地 TTS 服务,适合想低成本体验多模态 AI 桌宠的普通用户。

序言

最近在用一个叫 AIRI 的开源 AI 项目,部署简单、还能生成一个可调形象的桌面桌宠。我花了一整天_time_实测了从模型接入、TTS 语音、到跨平台联动的全过程——没有花哨概念,只有真实可用的细节。如果你也想拥有一个能聊天、会说话、还能接入 Discord 或游戏的“数字伙伴”,这篇就是你想要的落地指南。

演示

该项目支持ios、windwos、linux下载,看清型号配置点击下载即可安装,下载链接放在文章最后了。

637


打开软件,桌面上就会出现一个桌宠,这里的形象、大小都是可以调整的,感兴趣的可以尝试自定义,可以先连接上大模型再优化这个形象。

在设置>外观>通用>选择语言,切换成中文,然后重启应用即可生效,启动安全连接WebSocket是开启AIRI的实时加密通信,可以把Web版安装成手机APP


在模型提供商里可以选择很多服务商,如果电脑配置够的话可以选择ollama跑一个开源的qwen3.5 27B是最佳选择,如果配置不够可以调用api。

这里我使用的是阿里百炼的API,新出的套餐每月18000次调用,新用户才7块钱一个月,用处还是挺大的,使用下面链接还能领到10元优惠券:https://www.aliyun.com/benefit/ai/aistar?userCode=d5a2juv7&clubBiz=subTask…12391167…10263…

在设置中提供商里找到chat模型,这里面没有百炼或者千问的,但是这里可以选择minimax,软件虽然带了OpenAI Compatible兼容openai的选项,我测试了暂时不支持百炼的api。


接入模型后,这里就可以测试了,让她介绍一下自己,还是很可爱的。


在卡片编辑里可以设置角色的身份,描述它的是什么样子的以及它的行为等。

安装语音工具

我没有选择调用语音模型,如果为了方便省事可以去调用TTS模型的API,也可以在huggingface上下载Kokoro-82M这个模型,在这里使用的是一个开源的工具openai-edge-tts,这是一个免费的 OpenAI TTS 仿真器,下面是安装过程,下载连接放在文章最后了


下面这张图是安装环境,然后启动/app/server.py文件,这里出现Server running on http://localhost:5050 ,这个就可以了


回到AIRI,选择设置,在语音设置中填入http://localhost:5050/v1,注意这里不需要后面/audio/speech,API密钥随便填就可以了,因为上面的配置已经把API_KEY的验证给关闭了。


然后回到对话里就可以听到她的声音了,因为是免费的TTS,声音比较一般,对声音有要求的可以试试调用minimax或者百炼的TTS模型。

在设置里选择机体模块,这里可以配置连接Discord、X、我的世界、异星工厂,我这里虽然配置了Discord,里面只要填入一个Bot-token,比openclaw配置还要简单。剩下的我没有配置,有感兴趣的朋友可以自己试试。

总结

这个开源项目发布到现在时间还很短,但是官方的更新维护频率特别高,而且开源社区也很活跃,相信不久之后这个项目一定能更好,如果你也在找一个蹲在你桌面上、和你聊天的AI桌宠、虚拟伴侣,可以考虑这个开源项目。

项目开源链接:
https://github.com/moeru-ai/airi/releases/tag/v0.9.0-alpha.1
https://github.com/travisvn/openai-edge-tts

Read more

低代码AI化:是否正在重构开发行业格局?

低代码AI化:是否正在重构开发行业格局?

当低代码遇上AI,不再是简单的“拖拽+模板”拼凑,而是技术逻辑与业务场景的深度重构。JNPF依托AI能力,将表单、字段、咨询、流程四大核心环节智能化升级,让“不懂代码也能做开发”从噱头落地为现实。这是否意味着,低代码AI化正悄然颠覆整个开发行业的底层逻辑? 一、技术底层重构:从“工具拼接”到“原生智能”         传统低代码的核心局限,在于架构层面的“伪智能”。多数平台仅将AI作为附加插件,通过API调用实现表单生成、字段推荐等基础功能,本质上仍是“模板填充+关键词匹配”的逻辑,既无法深度适配个性化业务场景,也难以突破数据孤岛与功能壁垒。         而JNPF实现的是AI与低代码底层架构的深度耦合,以“原生智能”重构开发链路: * AI表单:摒弃传统模板套取模式,基于NLP语义解析技术,直接将自然语言描述转化为标准化表单。例如输入“客户售后工单系统:包含工单编号、客户信息、问题类型、处理进度、回访记录,支持状态流转与权限管控”

【AI】——SpringAI通过Ollama本地部署的Deepseek模型实现一个对话机器人(二)

【AI】——SpringAI通过Ollama本地部署的Deepseek模型实现一个对话机器人(二)

🎼个人主页:【Y小夜】 😎作者简介:一位双非学校的大三学生,编程爱好者, 专注于基础和实战分享,欢迎私信咨询! 🎆入门专栏:🎇【MySQL,Javaweb,Rust,python】 🎈热门专栏:🎊【Springboot,Redis,Springsecurity,Docker,AI】  感谢您的点赞、关注、评论、收藏、是对我最大的认可和支持!❤️ 目录 🎈Java调用Deepseek  🍕下载Deepseek模型  🍕本地测试  🍕Java调用模型 🎈构建数据库  🍕增强检索RAG  🍕向量数据库  🍕Springboot集成pgvector 🎈chatpdf 🎈function call调用自定义函数 🎈多模态能力 🎈Java调用Deepseek 本地没有安装Ollama、Docker,openwebUI,可以先学习一下这篇文章:【AI】——结合Ollama、Open WebUI和Docker本地部署可视化AI大语言模型_ollma+本地大模型+open web ui-ZEEKLOG博客

OpenClaw 新手指南:从零开始的 AI 机器人搭建完全攻略

OpenClaw 新手指南:从零开始的 AI 机器人搭建完全攻略 想随时随地通过微信、飞书、Telegram 等平台与 AI 助手对话?OpenClaw 帮你实现。 为什么选择 OpenClaw? OpenClaw 是一个开源的自托管 AI 网关,让你可以在自己服务器上运行一个 central hub,连接所有聊天平台到强大的 AI 模型(如 Claude、GPT、Pi、Kimi 等)。 核心优势: * ✅ 数据完全掌控(自托管,隐私安全) * ✅ 多平台统一管理(一个网关服务所有渠道) * ✅ 无代码扩展(通过技能系统) * ✅ 24/7 可用(开机自启动) * ✅ 日志和记忆(支持长期对话) 10个核心技巧详解 技巧 1:快速安装与配置 适用场景:

基于 FPGA 的千兆网 GigE Vision 视频传输方案实现(A7/K7 实战篇)

基于 FPGA 的千兆网 GigE Vision 视频传输方案实现(A7/K7 实战篇)

基于 FPGA 的千兆网 GigE Vision 视频传输方案实现(A7/K7 实战篇) 前言 在工业视觉和自动化领域,GigE Vision 协议因其无需采集卡、传输距离远、生态成熟等优势,已成为高性能工业相机的核心通讯标准。然而,在 FPGA 上实现一套完全符合标准的 Transmitter(发射端)方案并非易事。 本文将结合 Artix-7 和 Kintex-7 系列 FPGA 的架构特性,深度解析一套工业级 GigE Vision 方案的底层逻辑、核心功能以及在 A7/K7 平台上的落地实践,为企业项目集成和个人进阶学习提供参考建议。 一、 GigE Vision 协议栈的工业级功能拆解 一套商用级的 GigE Vision 方案(Transmitter)必须在