简单易学的分离式部署小米智能家居Miloco方法

一、安装环境

  • Windows用户:安装WSL2以及Docker
  • macOS/Linux用户:安装Docker
    此处不再赘述,网上随便找个教程即可。特别地,对于Windows用户来说,你需要将 WSL2 的网络模式设置为 Mirrored。

二、使用Docker部署Miloco后端

以下均为bash命令。请Windows用户进入WSL2 / Linux、macOS用户进入终端操作:

mkdir miloco cd milico vi docker-compose.yml 

以下是compose的内容(不会使用vi的同学可以傻瓜式操作:先按i,再使用粘贴功能,然后按冒号,输入wq然后回车,记得关闭输入法):

services:backend:container_name: miloco-backend image: ghcr.nju.edu.cn/xiaomi/miloco-backend:latest network_mode: host expose:- ${BACKEND_PORT:-8000}environment:- BACKEND_HOST=${BACKEND_HOST:-0.0.0.0}- BACKEND_PORT=${BACKEND_PORT:-8000}- AI_ENGINE_HOST=${AI_ENGINE_HOST:-0.0.0.0}- AI_ENGINE_PORT=${AI_ENGINE_PORT:-8001}- BACKEND_LOG_LEVEL=${BACKEND_LOG_LEVEL:-info}- TZ=${TZ:-Asia/Shanghai}volumes:- ./data:/app/miloco_server/.temp - ./log/backend:/app/miloco_server/.temp/log restart: unless-stopped healthcheck:disable:true

再写个.env

vi .env 

以下是.env的内容:

TZ=Asia/Shanghai BACKEND_HOST=0.0.0.0 BACKEND_PORT=8000 BACKEND_LOG_LEVER=info AI_ENGINE_HOST=0.0.0.0 AI_ENGINE_PORT=8001 AI_ENGINE_LOG_LEVER=info 

继续执行命令:

mkdir -p data mkdir -p log/backend docker compose up -d 

静待下载镜像以及运行即可。

三、部署视觉大模型

对于小白用户(含非专业的AMD用户),此处建议使用LM StudioOllama来部署GGUF版的VL模型。
如果你有一张高性能NVIDIA显卡(RTX3090、RTX4090、RTX5090等显存>=24G的),想要更加专业稳定的服务,那么建议使用vLLMSGLang进行生产级服务部署。
此处为了照顾Windows及macOS小白用户,以简单易用的LM Studio举例。

下载LM Studio并安装

https://lmstudio.ai/

设置及下载模型

点击界面最右下角的设置图标,

  • App Settings-General-Language-简体中文
  • App Settings-Developer-启用本地 LLM 服务

检查环境安装情况

还是在设置页-Runtime

NVIDIA用户
  • Vulkan llama.cpp
  • CUDA llama.cpp
  • CPU llama.cpp
  • CUDA 12 llama.cpp
  • Harmony
AMD用户
  • Vulkan llama.cpp
  • ROCm llama.cpp
  • CPU llama.cpp
  • Harmony
苹果用户
  • Vulkan llama.cpp
  • Metal llama.cpp
  • MLX llama.cpp
  • CPU llama.cpp
  • Harmony

下载模型

Model Search-搜索框中输入:xiaomi-open-source/Xiaomi-MiMo-VL-Miloco-7B-GGUF
点击右下角Download即可

运行模型并提供API服务

  • 下载完成后点击页面左侧的“开发者”(一个绿色终端图标,位于对话图标下方)
  • 点击页面顶部加载模型
  • 你应该能够看到xiaomi-mimo-vl-miloco-7bREADY状态。
  • 页面顶部有一个Status: Stopped,点击开关,切换到Running
  • 点击Server Settings,打开“在网络中提供服务”。
  • 你将得到一个局域网地址,显示在右侧的Reachable at中,如:http://192.168.50.210:1234。复制它。

四、与Miloco对接

假设你的Docker宿主机IP为192.168.50.123,那么就访问https://192.168.50.123:8000/。首次设置会让你登录账号,登录后有一个callback地址,也填写192.168.50.123:8000

对接VL模型

点击模型管理-云端模型-添加模型:
Base URL输入http://192.168.50.210:1234/v1
API Key随便填
模型ID填xiaomi-mimo-vl-miloco-7b,再点击一下以添加。
完成后在上方“视觉理解大模型”中选择云端:xiaomi-mimo-vl-miloco-7b

对接规划模型

对于许多用户来说,走到这一步的时候,想必你的显存/统一内存已经所剩无几了吧!让我们白嫖一下硅基流动的大模型。

  • 访问https://cloud.siliconflow.cn/,注册并登录。
  • 点击左侧的API密钥,生成一个,复制出来(sk开头的)
  • 还是添加云端模型:
    Base URL输入https://api.siliconflow.cn/v1
    API Key填刚才生成的
    模型ID选Qwen/Qwen3-8B
    完成后在上方“规划大模型”中选择云端:Qwen/Qwen3-8B

回到AI中心,开始你的Miloco之旅吧!

五、一点Tips

  • 对于规划模型,你可以尝试使用更强的大模型,它们调用工具更稳定,比如Kimi K2Minimax M2等。Qwen3-8B的训练时间较早且对齐略有问题,可能不能很好地稳定调用工具。这只是一个便宜的入门之选。
  • 对于VL模型,有条件的同学可以尝试部署全精度版本,使用vLLM提供服务,会获得更棒的体验。
  • 官方文档中推荐的安装方式只是多集成了一个AI Engine,本质上就是对llama.cpp的封装。分离式部署大模型服务更灵活。
  • 吐槽:我曾经想着提个pr来适配更多平台,但发现代码里硬编码了许多CUDA/nvidia相关的东西,蒜鸟蒜鸟。
  • 有疑问可以联系我:[email protected],不保证时效性。

Read more

大疆无人机固件自由下载工具:DankDroneDownloader完整使用指南

大疆无人机固件自由下载工具:DankDroneDownloader完整使用指南 【免费下载链接】DankDroneDownloaderA Custom Firmware Download Tool for DJI Drones Written in C# 项目地址: https://gitcode.com/gh_mirrors/da/DankDroneDownloader 你是否曾经为无法获取大疆无人机历史固件版本而烦恼?当厂商移除旧版固件后,你就失去了选择权。DankDroneDownloader正是为解决这一痛点而生,让你重新掌握无人机固件的下载自由。 什么是DankDroneDownloader? DankDroneDownloader是一款专为大疆无人机设计的定制固件下载工具,基于C#和.NET 9.0框架开发。它打破了厂商对固件版本的限制,让你能够自由下载任意历史版本的固件。 核心优势: * 完整的历史固件版本库 * 简洁易用的用户界面 * 支持Windows应用程序直接运行 * 优化的应用体积和性能 为什么需要DankDroneDownloader

By Ne0inhk

低成本体验AI绘画:Z-Image-Turbo按需GPU部署方案

低成本体验AI绘画:Z-Image-Turbo按需GPU部署方案 作为一名业余AI绘画爱好者,你是否也遇到过这样的困扰:想尝试AI绘画创作,却因为昂贵的显卡成本望而却步?Z-Image-Turbo镜像提供了一种按需付费的解决方案,让你无需购置专业设备,就能轻松体验AI绘画的魅力。本文将详细介绍如何利用Z-Image-Turbo镜像快速搭建AI绘画环境,特别适合偶尔使用、不想长期投入硬件成本的用户。 这类任务通常需要GPU环境支持,目前ZEEKLOG算力平台提供了包含该镜像的预置环境,可快速部署验证。下面我将从零开始,带你一步步完成整个部署流程。 Z-Image-Turbo镜像简介与准备工作 Z-Image-Turbo是基于OpenVINO™优化的AI绘画专用镜像,内置了通义Z-Image(造相)文生图模型。相比传统部署方式,它具备以下优势: * 预装完整环境:已集成CUDA、PyTorch等必要组件,省去繁琐的依赖安装 * 硬件要求低:通过OpenVINO™优化,16GB显存即可流畅运行 * 即开即用:支持按需启动,用完后可立即释放资源 部署前需要确认: 1.

By Ne0inhk
首席情绪架构师(Chief Emotion Architect, CEA):工程化写作的总设计师

首席情绪架构师(Chief Emotion Architect, CEA):工程化写作的总设计师

笔言: 本文旨在对首席情绪架构师(Chief Emotion Architect, CEA)的职责边界进行系统性界定与划分。 题外话: 歌曲地址 【生成曲子不一定完全按照设计带有感情唱出来】 歌曲《天堑:写给所有在相亲路上沉默的人 》情绪曲线设计图(带情绪标记) 情绪曲线图 情绪强度 10 │ 9 │ 🔥【绝望的爆发·被定价的屈辱】 8 │ 😔【悲凉的自嘲·被淘汰的叹息】 7 │ 😮‍💨【无力的呐喊·被计算的自己】 💧【柔软的渴望·一句“回来啦”】 6 │ ╱ ╲ 5 │ 😐【现实的冰冷·被筛选的开始】 🤍【释然的退场·“吹吹风也挺好”】 4 │ 3 │ 2 │ 1 │__________________________________________________________ 主歌1 副歌1 主歌2 副歌2 桥段 尾声 【平静压抑】 【无奈爆发】 【今昔对比】 【绝望高潮】

By Ne0inhk
FPGA实现MIPI协议全解析 + MIPI协议完整时序规范

FPGA实现MIPI协议全解析 + MIPI协议完整时序规范

一、MIPI协议核心基础认知 百度网盘链接:https://pan.baidu.com/s/1rDsLAXGj8WbX82teSkhuIw?pwd=1234 提取码: 1234 包含FPGA系统学习资料,免费分享 1. MIPI协议定义与核心特点 MIPI(Mobile Industry Processor Interface,移动产业处理器接口)是由MIPI联盟制定的高速串行差分接口协议,最初为手机、平板等移动设备设计,目前广泛应用于FPGA/嵌入式的图像采集(摄像头)、显示驱动(液晶屏)、高速数据传输 场景。 核心特点: ✅ 采用差分信号传输,抗干扰能力强、EMI电磁辐射小; ✅ 支持高低速双模切换,兼顾高速大数据传输和低速控制指令传输; ✅ 串行传输,引脚数量极少(对比并行RGB的几十根引脚,MIPI仅需时钟+1~4路数据差分对),硬件设计简洁; ✅ 传输速率高:单lane(数据通道)速率可达1Gbps~

By Ne0inhk