大模型+智能家居解决方案--小米MiLoco部署

大模型+智能家居解决方案--小米MiLoco部署

一、Miloco简介

小米推出了首个“大模型+智能家居”解决方案Xiaomi Miloco,全称为 Xiaomi Local Copilot(小米本地协同智能助手)。

https://gitee.com/xiaomi-miloco/xiaomi-miloco

1、GitHub地址

https://github.com/XiaoMi/xiaomi-miloco

Miloco以米家摄像头为视觉信息源,以自研大语言模型MiMo-VL-Miloco-7B为核心,连接家中所有物联网(IoT)设备,框架面向所有人开源。MiMo-VL-Miloco-7B模型基于小米4月发布的MiMo模型调优而来,“天才少女”罗福莉最近加入的正是MiMo模型团队。

这很可能是智能家居的“ChatGPT时刻”,小米AIoT平台截至今年6月已连接的IoT设备数(不含智能手机、平板及笔记本计算机)达9.89亿台,数以亿计的米家摄像头、小爱音箱、台灯等设备都有望用上大模型。

从小米公布的Miloco页面来看,页面主视觉是一个类似于ChatGPT的聊天框,聊天框的左侧具有智能家居设备的导航栏,包括AI中心、模型管理、MCP服务、设备管理等选项;“相机设备”独立成一栏,陈列了一些智能摄像头记录的视频。

2、关键特性

  1. 交互新范式:基于大模型的开发范式,通过自然语言交互就可以完成规则设置、设备的复杂指令控制。
  2. 视觉数据新用途:以摄像头数据流作为感知信息源,使用大模型将视觉数据包含的各种家庭场景事件解析出来,用于回复用户 Query。
  3. 端侧大模型:将家庭场景任务拆分规划+视觉理解两个阶段,提供小米自研端侧模型,实现端侧视频理解,保障家庭隐私安全。
  4. 米家生态:打通米家生态,支持米家设备、米家场景的获取与执行,支持自定义内容发送米家通知。

Miloco还通过标准化的MCP协议封装,实现米家生态与全球最大开源智能家居社区Home Assistant生态的打通,同时开放支持第三方IoT平台接入

从项目公布的软硬件要求来看,部署Miloco硬件要求不高,仅需要硬件搭载x64架构,图形处理器在英伟达30系列及以上,存储要在16GB及以上即可。

▲Miloco部署的软硬件需求

据悉,Miloco的全屋智能差异化体验,依托于Xiaomi MiMo-VL-Miloco-7B端侧视觉语言大模型“硬件-能力-应用-用户”四层完整架构的支撑。

3、Miloco的四层架构

二、快速开始

1、系统要求

  • 硬件要求
CPU: x64 架构 显卡: NVIDIA 30系及以上显卡,显存 8GB 及以上(最低),建议 12GB 及以上 存储: 建议 20GB 及以上可用空间(用于本地模型存储)
  • 软件要求
操作系统: - Linux: x64 架构,建议 Ubuntu 22.04 及以上 LTS 版本 - Windows: x64 架构,建议 Windows 10 及以上版本,要求支持 WSL2 - macOS: 暂不支持 Docker: 20.10 及以上版本,需要支持 docker compose NVIDIA 驱动: 支持 CUDA 的 NVIDIA 驱动 NVIDIA Container Toolkit: 用于Docker GPU支持

2、安装依赖环境

注意: 请确保您的系统满足上述硬件和软件要求。windows 系统需要进入 wsl 环境。

(1)WSL安装与配置

https://gitee.com/xiaomi-miloco/xiaomi-miloco/blob/main/docs/environment-setup-windows_zh-Hans.md

系统要求: Windows11 22H2 及以上版本 + WSL2

在系统中搜索然后打开控制面板,点击程序>启动或关闭 Windows 功能,然后勾选 Hyper-V 和适用于 Linux 的 Windows 子系统,点击确定,等待系统安装更新后重启

安装 WSL

在系统中搜素终端然后打开,输入wsl --install,等待 WSL 安装完成;如果已经安装,可以使用wsl --update更新到最新版本

下载 WSL2 Linux 发行版

打开 Windows 自带的应用商店,搜索 Ubuntu ,然后下载 Ubuntu24.04.1 LTS

在 Windows 终端可使用wsl --list --online查看在线的发行版,然后输入wsl --install -d Ubuntu-24.04安装

使用 WSL2

在应用商店下载完成后,可以点击打开按钮,然后按照提示输入用户名和密码,完成初始化

在终端输入wsl -d Ubuntu-24.04,然后按照提示输入用户名和密码,完成初始化

(2)WSL常用操作
# 启动默认发行版

wsl

# 退出当前发行版

exit # 或 logout

# 列出所有发行版(含状态)

wsl --list --verbose # 简写 wsl -l -v#

查看详细信息


wsl --status

# 设置默认启动发行版

wsl --set-default Ubuntu-22.04

# 卸载指定发行版(数据丢失)

wsl --unregister Ubuntu-20.04

# 查看WSL2的IP地址

ip addr show eth0 | grep 'inet\b' | awk '{print $2}' | cut -d/ -f1

# 关闭所有WSL实例

wsl --shutdown

# 运行特定发行版命令 wsl -d Ubuntu-22.04 -e bash -c "echo Hello"

#重启版本

wsl --terminate <DistributionName>

wsl --distribution <DistributionName>


网络模式配置

在系统中搜索 WSL Setting ,点击网络,然后将网络模式修改为 Mirrored ,修改完成后,需要使用wsl --shutdown停止子系统,然后重新运行wsl -d Ubuntu-24.04进入子系统,输入ip a查看子系统网络配置是否和宿主机器一致。

设置为 Mirrored 模式后,需要配置 Hyper-V 防火墙,允许入站连接。

在 PowerShell 窗口中以管理员权限运行以下命令,以配置 Hyper-V 防火墙设置,使其允许入站连接:

Set-NetFirewallHyperVVMSetting -Name '{40E0AC32-46A5-438A-A0B2-2B479E8F2E90}' -DefaultInboundAction Allow # 使用下述命令获取WSL防火墙策略 Get-NetFirewallHyperVVMSetting -PolicyStore ActiveStore -Name '{40E0AC32-46A5-438A-A0B2-2B479E8F2E90}' # DefaultInboundAction和DefaultOutboundAction为Allow即可: # Name : {40E0AC32-46A5-438A-A0B2-2B479E8F2E90} # Enabled : True # DefaultInboundAction : Allow # DefaultOutboundAction : Allow # LoopbackEnabled : True # AllowHostPolicyMerge : True
(3)Docker环境

使用官方脚本安装( WSL2 中官方推荐 Docker Desktop 安装,可以忽略提示,采用下述命令直接安装)

curl -fsSL https://get.docker.com | bash -s docker # 中国国内用户可以指定Aliyun源安装 curl -fsSL https://get.docker.com | bash -s docker --mirror Aliyun

可将当前用户加入 docker 组,从而可以直接使用 docker 命令:

sudo usermod -aG docker $USER

添加完成后,需要重新登录,以使用户组更改生效。 使用命令docker --version验证是否安装成功。

(4)显卡驱动及开发工具(任选一个)
# 25-11-1更新 # 安装CUDA Toolkit(推荐安装) wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2404/x86_64/cuda-keyring_1.1-1_all.deb sudo dpkg -i cuda-keyring_1.1-1_all.deb sudo apt-get update sudo apt install nvidia-cuda-toolkit # 安装NVIDIA Driver sudo apt-get -y install cuda-drivers

# 25-11-1更新 # 配置下载源 sudo apt-get update && sudo apt-get install -y --no-install-recommends curl gnupg2 curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg \ && curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \ sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \ sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list sudo sed -i -e '/experimental/ s/^#//g' /etc/apt/sources.list.d/nvidia-container-toolkit.list sudo apt-get update export NVIDIA_CONTAINER_TOOLKIT_VERSION=1.18.0-1 sudo apt-get install -y \ nvidia-container-toolkit=${NVIDIA_CONTAINER_TOOLKIT_VERSION} \ nvidia-container-toolkit-base=${NVIDIA_CONTAINER_TOOLKIT_VERSION} \ libnvidia-container-tools=${NVIDIA_CONTAINER_TOOLKIT_VERSION} \ libnvidia-container1=${NVIDIA_CONTAINER_TOOLKIT_VERSION}

3、环境验证

(1)验证 Docker

使用hello-world镜像验证 Docker 是否安装成功,如果显示Hello from Docker!则表示安装成功。

docker run hello-world # 验证完成后,可移除镜像 docker rmi hello-world
(2)验证 NVIDIA 显卡驱动

使用命令nvidia-smi验证 NVIDIA Driver 是否安装成功,如果显示显卡驱动和 CUDA 工具包信息,则表示安装成功。

使用命令nvcc --version验证 NVIDIA CUDA Toolkit 是否安装成功,如果安装成功,会显示版本信息。

(3)验证 NVIDIA Container Toolkit

使用下述命令验证 NVIDIA Container Toolkit 是否安装成功,如果显示显卡驱动和 CUDA 工具包信息,则表示安装成功。

docker run --rm --gpus all nvidia/cuda:12.4.0-base-ubuntu22.04 nvidia-smi # 验证完成后,可移除镜像 docker rmi nvidia/cuda:12.4.0-base-ubuntu22.04

4、miloco安装与启动

下载源码后,执行一键安装脚本

git clone https://github.com/XiaoMi/xiaomi-miloco.git bash scripts/install.sh

miloco安装运行界面:

选择 “1. Quick Install”

选择下载路径:国内推荐 Xiaomi FDS

安装完成提示:

启动服务:

运行服务后的系统运行时状态:

5、前端访问服务

通过https://<your ip>:8000访问服务,如果是本机访问, IP 为127.0.0.1

📄NOTICE:

  • 请使用 https 访问,而不是 http
  • Windows 下,在 Windows 中可以尝试直接访问 WSL 的 IP 地址,如 https://<wsl ip>:8000
  • macOS 环境下,如果网络模式配置为桥接模式,访问时请使用 Docker 所在虚拟机的 IP。

6、miloco使用

miloco前端管理界面:

设置后端使用的模型:

设置规则:

主界面里可以自动生成,也可以在规则管理里手动添加。这里使用的是手动添加。

注意:

添加规则前,需要在米家APP里测试相关控制设备的有效性。

添加规则时,一定要在设置控制选项点击“测试”按钮,生成有效的米家控制指令,有时AI模型调用生成指令有问题,多测试几遍。

如果设置的规则执行有问题,可以在日志管理查看相关执行日志。

Read more

OFA-VE在AR内容生成中的应用:实时验证虚拟物体与现实图像逻辑关系

OFA-VE在AR内容生成中的应用:实时验证虚拟物体与现实图像逻辑关系 1. 引言:当虚拟遇见现实,如何确保它们“合情合理”? 想象一下,你正在开发一款增强现实(AR)应用,用户可以通过手机摄像头,在自家的客厅里“放置”一个虚拟的沙发。听起来很酷,对吧?但问题来了:如果用户家的客厅里已经摆满了家具,这个虚拟沙发应该放在哪里才显得真实、不突兀?是悬浮在半空,还是稳稳地落在地板上?它会不会和现实中的茶几“穿模”? 这就是AR内容生成中一个核心且棘手的挑战:逻辑一致性。虚拟物体不仅要“看起来”在现实场景中,更要“在逻辑上”与现实场景融为一体。传统方法往往依赖复杂的3D场景重建和物理引擎计算,过程繁琐且对硬件要求高。 今天,我们要介绍一个能优雅解决这个问题的“智能裁判”——OFA-VE。它不是一个AR开发工具,而是一个尖端的多模态推理系统。它的核心能力是进行“视觉蕴含”分析,简单来说,就是判断一段文字描述是否符合一张图片所展现的事实。 我们将深入探讨,如何利用OFA-VE的这种能力,为AR内容生成流程注入“逻辑验证”

By Ne0inhk

Krita插件配置与AI绘画模型部署完全指南:从故障诊断到长效维护

Krita插件配置与AI绘画模型部署完全指南:从故障诊断到长效维护 【免费下载链接】krita-ai-diffusionStreamlined interface for generating images with AI in Krita. Inpaint and outpaint with optional text prompt, no tweaking required. 项目地址: https://gitcode.com/gh_mirrors/kr/krita-ai-diffusion Krita-AI-Diffusion插件作为连接AI绘画能力与专业图像编辑的桥梁,其模型配置与服务部署的稳定性直接影响创作流程的连续性。本文将系统讲解Krita插件配置、AI绘画模型部署及ComfyUI节点管理的全流程解决方案,帮助用户建立从故障诊断到预防性维护的完整知识体系,彻底解决CLIP模型路径配置错误、SD1.5模型加载失败及控制层功能激活异常等常见问题。 一、问题诊断:精准识别模型部署故障 1.1 故障现象分类 模型部署故障主要表现为三类典型症状:功能界面灰化禁用(关键按

By Ne0inhk

ClawdBot保姆级部署指南:零配置运行Telegram全能翻译机器人

ClawdBot保姆级部署指南:零配置运行Telegram全能翻译机器人 你是否试过在 Telegram 群里发一条中文消息,想让外国朋友立刻看懂,却要先复制、切到翻译 App、再粘贴、再发回群?又或者收到一张模糊的菜单图,想快速知道价格和菜品,却得手动打字识别?更别说语音留言听不清、汇率临时查不到、天气预报找不到入口……这些日常小痛点,本不该消耗你的时间。 ClawdBot 不是另一个“概念型”AI项目。它是一个真正能装进你本地设备、开箱即用、不依赖云服务、不上传隐私数据的个人 AI 助手。而它的核心能力,正由 vLLM 高效驱动——这意味着你在树莓派上也能跑起 4B 级别大模型,响应快、显存省、推理稳。它不追求参数堆砌,只专注一件事:把复杂技术藏在背后,把简单好用交到你手上。 但今天这篇文章,我们不聊架构设计,也不讲模型微调。我们要一起完成一件非常实在的事:5 分钟内,在你自己的机器上,

By Ne0inhk
基于FPGA的积分梳状CIC滤波器Verilog设计探秘

基于FPGA的积分梳状CIC滤波器Verilog设计探秘

基于FPGA的积分梳状CIC滤波器verilog设计 1.系统概述 这里设计的五级CIC滤波器。 那么其基本结构如上图所示,在降采样的左右都有五个延迟单元。 但是在CIC滤波的时候,会导致输出的位宽大大增加,但是如果单独对中间的处理信号进行截位,这会导致处理精度不够,从而影响整个系统的性能,所以,这里我们首先将输入的信号进行扩展。 由于我们输入的中频信号通过ADC是位宽为14,在下变频之后,通过截位处理,其输出的数据仍为14位,所以,我们将CIC滤波的输入为14位,但是考虑到处理中间的益处情况以及保证处理精度的需要,我们首先将输入位宽扩展为40位,从而保证了处理精度以及溢出的情况。 这里首先说明一下为什么使用的级别是5级。 从硬件资源角度考虑,CIC滤波器的级数太高,会导致最终输出的数据位宽很大,通过简单的验证,当CIC的级数大于5的时候,输出的位宽>50。 这显然会导致硬件资源的大量占用,如果CIC级数太小,比如1,2级。 这在其处理效果上没有任何意义,基本无法达到预计的效果,通过仿真分析,一般情况下,选择4级,5级比较合理,因此,这里我们选择5级的CIC滤波器。 2.系统仿真效果预

By Ne0inhk