小米 Miloco 大模型智能家居部署指南
介绍小米 Miloco 大模型智能家居解决方案的部署流程。Miloco 基于本地大模型 MiMo-VL-Miloco-7B,连接 IoT 设备并提供自然语言交互。文章详细说明了系统硬件(x64, NVIDIA 30 系+)和软件(Ubuntu/WSL, Docker, CUDA)要求。步骤涵盖 WSL 配置、Docker 安装、驱动验证及项目一键安装。最后介绍了前端访问方式及基础规则设置方法,支持米家生态与 Home Assistant 打通。

介绍小米 Miloco 大模型智能家居解决方案的部署流程。Miloco 基于本地大模型 MiMo-VL-Miloco-7B,连接 IoT 设备并提供自然语言交互。文章详细说明了系统硬件(x64, NVIDIA 30 系+)和软件(Ubuntu/WSL, Docker, CUDA)要求。步骤涵盖 WSL 配置、Docker 安装、驱动验证及项目一键安装。最后介绍了前端访问方式及基础规则设置方法,支持米家生态与 Home Assistant 打通。

小米推出了首个'大模型 + 智能家居'解决方案 Xiaomi Miloco,全称为 Xiaomi Local Copilot(小米本地协同智能助手)。
https://github.com/XiaoMi/xiaomi-miloco
Miloco 以米家摄像头为视觉信息源,以自研大语言模型 MiMo-VL-Miloco-7B 为核心,连接家中所有物联网(IoT)设备,框架面向所有人开源。MiMo-VL-Miloco-7B 模型基于小米发布的 MiMo 模型调优而来。
从小米公布的 Miloco 页面来看,页面主视觉是一个类似于 ChatGPT 的聊天框,聊天框的左侧具有智能家居设备的导航栏,包括 AI 中心、模型管理、MCP 服务、设备管理等选项;相机设备独立成一栏,陈列了一些智能摄像头记录的视频。
Miloco 还通过标准化的 MCP 协议封装,实现米家生态与全球最大开源智能家居社区 Home Assistant 生态的打通,同时开放支持第三方 IoT 平台接入。
从项目公布的软硬件要求来看,部署 Miloco 硬件要求不高,仅需要硬件搭载 x64 架构,图形处理器在英伟达 30 系列及以上,存储要在 16GB 及以上即可。
Miloco 部署的软硬件需求

据悉,Miloco 的全屋智能差异化体验,依托于 Xiaomi MiMo-VL-Miloco-7B 端侧视觉语言大模型与'硬件 - 能力 - 应用 - 用户'四层完整架构的支撑。

CPU: x64 架构
显卡:NVIDIA 30 系及以上显卡,显存 8GB 及以上(最低),建议 12GB 及以上
存储:建议 20GB 及以上可用空间(用于本地模型存储)
操作系统:
- Linux: x64 架构,建议 Ubuntu 22.04 及以上 LTS 版本
- Windows: x64 架构,建议 Windows 10 及以上版本,要求支持 WSL2
- macOS: 暂不支持
Docker: 20.10 及以上版本,需要支持 docker compose
NVIDIA 驱动:支持 CUDA 的 NVIDIA 驱动
NVIDIA Container Toolkit: 用于 Docker GPU 支持
注意:请确保您的系统满足上述硬件和软件要求。Windows 系统需配置 WSL 环境。
系统要求:Windows 11 22H2 及以上版本 + WSL2
在系统中搜索并打开控制面板,点击程序 > 启动或关闭 Windows 功能,然后勾选 Hyper-V 和适用于 Linux 的 Windows 子系统,点击确定,等待系统安装更新后重启。

安装 WSL
在系统中搜索终端然后打开,输入 wsl --install,等待 WSL 安装完成;如果已经安装,可以使用 wsl --update 更新到最新版本。
下载 WSL2 Linux 发行版
打开 Windows 自带的应用商店,搜索 Ubuntu,然后下载 Ubuntu 24.04.1 LTS。
在 Windows 终端可使用 wsl --list --online 查看在线的发行版,然后输入 wsl --install -d Ubuntu-24.04 安装。
使用 WSL2
在应用商店下载完成后,可以点击打开按钮,然后按照提示输入用户名和密码,完成初始化。
在终端输入 wsl -d Ubuntu-24.04,然后按照提示输入用户名和密码,完成初始化。
# 启动默认发行版
wsl
# 退出当前发行版
exit # 或 logout
# 列出所有发行版(含状态)
wsl --list --verbose # 简写 wsl -l -v
# 查看详细信息
wsl --status
# 设置默认启动发行版
wsl --set-default Ubuntu-22.04
# 卸载指定发行版(数据丢失)
wsl --unregister Ubuntu-20.04
# 查看 WSL2 的 IP 地址
ip addr show eth0 | grep 'inet\b' | awk '{print $2}' | cut -d/ -f1
# 关闭所有 WSL 实例
wsl --shutdown
# 运行特定发行版命令
wsl -d Ubuntu-22.04 -e bash -c "echo Hello"
# 重启版本
wsl --terminate <DistributionName>
wsl --distribution <DistributionName>
网络模式配置
在系统中搜索 WSL Settings,点击网络,然后将网络模式修改为 Mirrored,修改完成后,需要使用 wsl --shutdown 停止子系统,然后重新运行 wsl -d Ubuntu-24.04 进入子系统,输入 ip a 查看子系统网络配置是否和宿主机器一致。
设置为 Mirrored 模式后,需要配置 Hyper-V 防火墙,允许入站连接。
在 PowerShell 窗口中以管理员权限运行以下命令,以配置 Hyper-V 防火墙设置,使其允许入站连接:
Set-NetFirewallHyperVVMSetting -Name '{40E0AC32-46A5-438A-A0B2-2B479E8F2E90}' -DefaultInboundAction Allow
# 使用下述命令获取 WSL 防火墙策略
Get-NetFirewallHyperVVMSetting -PolicyStore ActiveStore -Name '{40E0AC32-46A5-438A-A0B2-2B479E8F2E90}'
# DefaultInboundAction 和 DefaultOutboundAction 为 Allow 即可
使用官方脚本安装(WSL2 中官方推荐 Docker Desktop 安装,可以忽略提示,采用下述命令直接安装):
curl -fsSL https://get.docker.com | bash -s docker
# 中国国内用户可以指定 Aliyun 源安装
curl -fsSL https://get.docker.com | bash -s docker --mirror Aliyun
可将当前用户加入 docker 组,从而可以直接使用 docker 命令:
sudo usermod -aG docker $USER
添加完成后,需要重新登录,以使用户组更改生效。使用命令 docker --version 验证是否安装成功。
# 25-11-1 更新
# 安装 CUDA Toolkit(推荐安装)
wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2404/x86_64/cuda-keyring_1.1-1_all.deb
sudo dpkg -i cuda-keyring_1.1-1_all.deb
sudo apt-get update
sudo apt install nvidia-cuda-toolkit
# 安装 NVIDIA Driver
sudo apt-get -y install cuda-drivers
# 25-11-1 更新
# 配置下载源
sudo apt-get update && sudo apt-get install -y --no-install-recommends curl gnupg2
curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg \
&& curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \
sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \
sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list
sudo sed -i -e '/experimental/ s/^#//g' /etc/apt/sources.list.d/nvidia-container-toolkit.list
sudo apt-get update
export NVIDIA_CONTAINER_TOOLKIT_VERSION=1.18.0-1
sudo apt-get install -y \
nvidia-container-toolkit=${NVIDIA_CONTAINER_TOOLKIT_VERSION} \
nvidia-container-toolkit-base=${NVIDIA_CONTAINER_TOOLKIT_VERSION} \
libnvidia-container-tools=${NVIDIA_CONTAINER_TOOLKIT_VERSION} \
libnvidia-container1=${NVIDIA_CONTAINER_TOOLKIT_VERSION}
使用 hello-world 镜像验证 Docker 是否安装成功,如果显示 Hello from Docker! 则表示安装成功。
docker run hello-world
# 验证完成后,可移除镜像
docker rmi hello-world
使用命令 nvidia-smi 验证 NVIDIA Driver 是否安装成功,如果显示显卡驱动和 CUDA 工具包信息,则表示安装成功。

使用命令 nvcc --version 验证 NVIDIA CUDA Toolkit 是否安装成功,如果安装成功,会显示版本信息。

使用下述命令验证 NVIDIA Container Toolkit 是否安装成功,如果显示显卡驱动和 CUDA 工具包信息,则表示安装成功。
docker run --rm --gpus all nvidia/cuda:12.4.0-base-ubuntu22.04 nvidia-smi
# 验证完成后,可移除镜像
docker rmi nvidia/cuda:12.4.0-base-ubuntu22.04
下载源码后,执行一键安装脚本:
git clone https://github.com/XiaoMi/xiaomi-miloco.git
bash scripts/install.sh

Miloco 安装运行界面:

选择'1. Quick Install'。

选择下载路径:国内推荐 Xiaomi FDS。


安装完成提示:

启动服务:

运行服务后的系统运行时状态:

通过 https://<your ip>:8000 访问服务,如果是本机访问,IP 为 127.0.0.1。
注意:
- 请使用 https 访问,而不是 http
- Windows 下,在 Windows 中可以尝试直接访问 WSL 的 IP 地址,如
https://<wsl ip>:8000- macOS 环境下,如果网络模式配置为桥接模式,访问时请使用 Docker 所在虚拟机的 IP。



Miloco 前端管理界面:

设置后端使用的模型:

设置规则:
主界面里可以自动生成,也可以在规则管理里手动添加。这里使用的是手动添加。
注意:
添加规则前,需要在米家 APP 里测试相关控制设备的有效性。
添加规则时,一定要在设置控制选项点击'测试'按钮,生成有效的米家控制指令,有时 AI 模型调用生成指令有问题,多测试几遍。

如果设置的规则执行有问题,可以在日志管理查看相关执行日志。


微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
使用加密算法(如AES、TripleDES、Rabbit或RC4)加密和解密文本明文。 在线工具,加密/解密文本在线工具,online
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online
将 Markdown(GFM)转为 HTML 片段,浏览器内 marked 解析;与 HTML 转 Markdown 互为补充。 在线工具,Markdown 转 HTML在线工具,online