开源AI桌宠AIRI完整部署指南

开源AI桌宠AIRI完整部署指南
本文手把手记录了 AIRI 的快速部署全流程:从设置中文界面、接入阿里百炼 API,到配置本地 TTS 服务,适合想低成本体验多模态 AI 桌宠的普通用户。

序言

最近在用一个叫 AIRI 的开源 AI 项目,部署简单、还能生成一个可调形象的桌面桌宠。我花了一整天_time_实测了从模型接入、TTS 语音、到跨平台联动的全过程——没有花哨概念,只有真实可用的细节。如果你也想拥有一个能聊天、会说话、还能接入 Discord 或游戏的“数字伙伴”,这篇就是你想要的落地指南。

演示

该项目支持ios、windwos、linux下载,看清型号配置点击下载即可安装,下载链接放在文章最后了。

637


打开软件,桌面上就会出现一个桌宠,这里的形象、大小都是可以调整的,感兴趣的可以尝试自定义,可以先连接上大模型再优化这个形象。

在设置>外观>通用>选择语言,切换成中文,然后重启应用即可生效,启动安全连接WebSocket是开启AIRI的实时加密通信,可以把Web版安装成手机APP


在模型提供商里可以选择很多服务商,如果电脑配置够的话可以选择ollama跑一个开源的qwen3.5 27B是最佳选择,如果配置不够可以调用api。

这里我使用的是阿里百炼的API,新出的套餐每月18000次调用,新用户才7块钱一个月,用处还是挺大的,使用下面链接还能领到10元优惠券:https://www.aliyun.com/benefit/ai/aistar?userCode=d5a2juv7&clubBiz=subTask…12391167…10263…

在设置中提供商里找到chat模型,这里面没有百炼或者千问的,但是这里可以选择minimax,软件虽然带了OpenAI Compatible兼容openai的选项,我测试了暂时不支持百炼的api。


接入模型后,这里就可以测试了,让她介绍一下自己,还是很可爱的。


在卡片编辑里可以设置角色的身份,描述它的是什么样子的以及它的行为等。

安装语音工具

我没有选择调用语音模型,如果为了方便省事可以去调用TTS模型的API,也可以在huggingface上下载Kokoro-82M这个模型,在这里使用的是一个开源的工具openai-edge-tts,这是一个免费的 OpenAI TTS 仿真器,下面是安装过程,下载连接放在文章最后了


下面这张图是安装环境,然后启动/app/server.py文件,这里出现Server running on http://localhost:5050 ,这个就可以了


回到AIRI,选择设置,在语音设置中填入http://localhost:5050/v1,注意这里不需要后面/audio/speech,API密钥随便填就可以了,因为上面的配置已经把API_KEY的验证给关闭了。


然后回到对话里就可以听到她的声音了,因为是免费的TTS,声音比较一般,对声音有要求的可以试试调用minimax或者百炼的TTS模型。

在设置里选择机体模块,这里可以配置连接Discord、X、我的世界、异星工厂,我这里虽然配置了Discord,里面只要填入一个Bot-token,比openclaw配置还要简单。剩下的我没有配置,有感兴趣的朋友可以自己试试。

总结

这个开源项目发布到现在时间还很短,但是官方的更新维护频率特别高,而且开源社区也很活跃,相信不久之后这个项目一定能更好,如果你也在找一个蹲在你桌面上、和你聊天的AI桌宠、虚拟伴侣,可以考虑这个开源项目。

项目开源链接:
https://github.com/moeru-ai/airi/releases/tag/v0.9.0-alpha.1
https://github.com/travisvn/openai-edge-tts

Read more

04_Dify 单独启动前端 Docker 容器

04_Dify 单独启动前端 Docker 容器

前言 本文介绍了在前后端分离开发场景下,部署Dify前端服务的两种Docker化方案。一是直接使用官方DockerHub镜像启动前端容器,支持最新版或指定版本,并配置后端API地址;二是通过源码本地构建自定义镜像后再启动。两种方法均通过环境变量配置控制台与应用的API连接,并提供了本地访问验证方式,适合后端开发者专注业务逻辑时快速启用前端界面。 一、直接使用 DockerHub 镜像 当单独开发后端时,可能只需要源码启动后端服务,而不需要本地构建前端代码并启动,因此可以直接通过拉取 docker 镜像并启动容器的方式来启动前端服务。 1.1 启动后端服务 查看教程:👉 Dify开源版使用源代码本地启动(一至五部分) 查看教程:👉 dify-plugin-daemon使用源码启动图文教程 1.2 使用 DockerHub 镜像启动前端 Docker 容器 获取最新版本 docker run -it -p 3000:3000 -e CONSOLE_API_URL=http://127.0.0.

Qwen3-VL-4B Pro一键部署:Docker+GPU驱动自动检测+WebUI直连

Qwen3-VL-4B Pro一键部署:Docker+GPU驱动自动检测+WebUI直连 1. 这不是普通“看图说话”,而是真正能读懂图像逻辑的AI 你有没有试过给AI传一张超市货架照片,让它不仅说出“这是零食区”,还能指出“第三排左数第二个蓝色包装是进口海苔脆,保质期还剩17天”?或者上传一张电路板图片,它能准确识别出烧毁的电容位置并解释可能的故障原因?这些不再是实验室里的演示效果——Qwen3-VL-4B Pro 就是为此而生。 它不是又一个调用API的网页工具,也不是需要你手动编译、改配置、查报错的“工程挑战赛”。这是一个从镜像拉取到浏览器打开、全程不到3分钟就能开始图文对话的完整闭环。没有Python环境冲突,不纠结CUDA版本,不手动下载模型权重,甚至不需要知道“device_map”是什么意思。你只需要有显卡、有Docker、有浏览器——剩下的,它自己搞定。 更关键的是,它真的“懂图”。不是靠OCR扫文字、不是靠分类标签堆关键词,而是把图像当作和文字同等重要的信息源,进行跨模态对齐与联合推理。比如你问:“如果把图中穿红衣服的人换成穿西装的,背景灯光该怎么调整才自然

深入剖析云原生Service Mesh数据平面Envoy核心架构:基于xDS协议与WebAssembly实现动态流量管理与安全策略的微服务治理实战指南

深入剖析云原生Service Mesh数据平面Envoy核心架构:基于xDS协议与WebAssembly实现动态流量管理与安全策略的微服务治理实战指南

深入剖析云原生Service Mesh数据平面Envoy核心架构:基于xDS协议与WebAssembly实现动态流量管理与安全策略的微服务治理实战指南 在云原生微服务架构的演进中,Service Mesh(服务网格)已成为处理服务间通信的标准基础设施。而在这一架构中,Envoy 凭借其高性能的 C++ 实现、可扩展的架构以及作为 Istio 默认数据平面的地位,成为了事实上的“Sidecar之王”。 本文将深入剖析 Envoy 的核心架构,重点解析其如何通过 xDS 协议 实现动态配置,以及如何利用 WebAssembly (Wasm) 技术突破传统的扩展瓶颈,实现微服务的流量管理与安全策略治理。 1. Envoy 核心架构全景:高性能的“四层”模型 Envoy 本质上是一个高性能的边缘/服务代理,其设计核心在于将网络处理逻辑分解为清晰的层级。这种设计不仅保证了极高的吞吐量,也使得配置极其灵活。 1.1 逻辑架构分层 Envoy 的逻辑架构自上而下分为四个核心层次: Level 1: 线程模型与I/

Axum: Rust 好用的 Web 框架

Axum: Rust 好用的 Web 框架

Axum 是 Rust 生态中基于 Tokio 异步运行时和 Tower 中间件体系打造的高性能 Web 框架,以“类型安全、无宏入侵、轻量高效”为核心优势,广泛应用于云原生、微服务、API 网关等场景。它摒弃了传统 Web 框架的宏魔法,完全依赖 Rust 的类型系统实现路由匹配、请求解析、响应处理,兼顾了开发效率与运行性能。 本文将从环境搭建、核心概念、路由设计、请求处理、中间件开发到生产级实战,全方位拆解 Axum 的使用技巧,每个知识点均配套可运行的示例代码,帮助开发者从入门到精通,快速构建高性能的 Rust Web 应用。 一、环境准备与项目初始化 1.1 前置条件 * 安装 Rust 环境: