全屋智能家居的最强大脑!极空间部署全屋AI自动化方案『Miloco』

全屋智能家居的最强大脑!极空间部署全屋AI自动化方案『Miloco』

全屋智能家居的最强大脑!极空间部署全屋AI自动化方案『Miloco』

哈喽小伙伴们好,我是Stark-C~

说到智能化家居大家都不陌生,毕竟大家或多或少都使用过,或者正在使用。

不知道大家发现没有,目前的智能家居基本都很“被动”,比如说智能灯要么靠“喊”,要么靠“感应”,空调的提前预热或制冷需要我们远程开启,家里的摄像头只是能看画面,但“看不懂”发生了什么。。。

总的来说,现在很多的智能家居广义上说其实只是在“执行命令”,而不是“理解场景”。它们更像是听话的小助手,却没有一个能主动思考、能理解你生活习惯的“大脑”。

如是,小米科技带来的『Miloco』来了!

关于Miloco

🔺Miloco(Xiaomi Local Copilot)是小米在去年十一月份(2025年11月)发布的,据说是一款“智能家居未来探索方案”,该方案以米家摄像机为视觉信息来源,打通全屋IoT设备,实现简单、便捷的全屋智能生态。该项目目前Github上开源,并且正在快速的发展壮大中。

Github主页地址:https://github.com/XiaoMi/xiaomi-miloco

项目亮点特性(引自原叙述):交互新范式:基于大模型的开发范式,通过自然语言交互就可以完成规则设置、设备的复杂指令控制。端侧大模型:将家庭场景任务拆分规划+视觉理解两个阶段,提供小米自研端侧模型Xiaomi MiMo-VL-Miloco-7B,实现端侧视频理解,保障家庭隐私安全。视觉数据新用途:以摄像头数据流作为感知信息源,使用大模型将视觉数据包含的各种家庭场景事件解析出来,用于回复用户 Query。米家生态:打通米家生态,支持米家设备、米家场景的获取与执行,支持自定义内容发送米家通知。

简单理解,Miloco就是通过AI大模型技术,将米家摄像头变成了一个有思维方式的”最强大脑“,然后通过视觉信息,自动给家里其它的智能家居下达指令。比如说:

  • 当我们坐到书桌前,它能识别你在阅读或工作时,它能自动把台灯打开并调到合适亮度;
  • 当我们躺在床上它可以为我们自动切换到睡眠模式,为我们关窗帘,或者将空调设置为合适的温度;
  • 当我们离开房间并锁门,它能判断房间无人,自动关灯关空调;
  • 当我们家里养的猫星人捣乱跳上餐桌,它能识别异常行为并通过手机远程推送提醒,甚至还通过智能音箱发送驱赶语音。

Miloco部署

部署前的说明:

🔺Miloco的服务分主服务和 AI 引擎两部分,都可以使用Docker的方式部署在本地。根据使用 AI 引擎的方式不同,分为两个方案:

  • 一个是调用云端AI大模型,这个时候我们仅需部署主服务部分就可以了。这个方案几乎不占资源,NAS 只负责设备发现与自动化逻辑,所有 AI 推理都交给云端完成,适合对隐私要求不高,轻量级的使用场景。
  • 另一个是启用本地AI大模型,需要先将大模型下载到本地,然后在 NAS 上同时部署主服务和 AI 引擎,由本地算力完成视觉理解、事件推理等任务,实现真正的“全屋本地 AI”能力。但是对GPU有要求,需要30系及以上NVIDIA显卡,显存8G及以上;显卡驱动版本527.41及以上;CUDA版本12.5.1及以上。

如果是在NAS上部署,启用本地AI大模型的方案对硬件门槛的要求还是相当高的,除了需要外置独显的支持(目前极空间支持外置独显的机型仅为Z425和T6),还要准备一块性能不俗的独显,以及额外的雷电显卡坞设备。

所以本篇我分享的方案是调用云端AI大模型,也就是说只部署主服务,没有独显要求,资源占用很低,几乎任何极空间NAS都能轻松跑起来,可以说是目前最适合大多数NAS用户的 Miloco 部署方式。

部署前的准备:

1,既然前面说过,Miloco是一个基于米家摄像头来运行的项目,所以你肯定需要一个正常联网且运行中的米家摄像头了。我家里用的正好是小米智能摄像机3 pro云台版,所以正好符合这个要求。

2,既然本篇教程是调用云端AI大模型,所以还得提前准备大模型的API。和常规的对话大模型不同,Miloco启用的大模型还需要具备视觉推理,所以个人使用的是硅基流动,里面提供了多种不同类型的多模态模型,并且这些模型都可以通过统一的 API Key 调用。

如果还没注册过硅基流动的用户,可以通过我个人的邀请链接【https://cloud.siliconflow.cn/i/BsoAsvvg】,这样你我都能免费获得16元的代金券奖励,足够我们体验一段时间的 API 调用、批量推理、微调训练等使用场景了!

开始部署:

🔺打开极空间NAS的文件管理器,在Docker目录下新建一个“miloco”的文件夹,然后在它下面新建data、log两个子文件夹。

🔺然后点击极空间NAS的“Docker”应用,点击【Compose】 > 【新增项目】。

🔺在新增项目页面自定义项目名称,输入以下 Docker Compose 配置信息后点“创建”按钮:

services: backend:   container_name: miloco-backend   image: ghcr.io/xiaomi/miloco-backend:latest   network_mode: host   environment:     - BACKEND_HOST=0.0.0.0     - BACKEND_PORT=8002   # 项目Web页面打开端口,冒号前面请勿本地冲突     - AI_ENGINE_HOST=0.0.0.0     - AI_ENGINE_PORT=8001     - BACKEND_LOG_LEVEL=info     - TZ=Asia/Shanghai   volumes:     - ./Docker/miloco/data:/app/miloco_server/.temp   # 冒号前面映射data子文件夹本地路径     - ./Docker/miloco/log:/app/miloco_server/.temp/log   # 冒号前面映射log子文件夹本地路径   restart: unless-stopped   healthcheck:     disable: true

以上代码需要修改的地方我都用中文注释标注出来了,其它的直接保持默认即可。镜像的拉取需要自行解决网络问题,粘贴到自己的NAS这边之前建议使用AI工具优化一下,以防止格式问题造成的部署失败。

顺便说一下,volumes映射的路径需要在当前界面使用“查询路径”查找到真实路径直接复制粘贴就可以了,个人觉得极空间这里对于新手小白已经是相当友好的操作了。

Snipaste_2026-02-12_22-07-31

🔺项目只有一个容器,看到显示“运行中”,就说明可以使用了。

Miloco体验

🔺部署好的Miloco项目可以通过浏览器输入【https://IP:端口号】

🔺设置好之后输入登录码登录(这步忘记截图了~),之后会有一个协议说明,直接勾选并“同意”即可。

🔺之后会让我们登录自己的小米账号授权,可以直接输入账号和密码,也可以通过APP扫码的方式。这里大家直接登录即可,毕竟是官方项目,安全性还是没什么问题的。

🔺授权成功之后会有提示,这里需要输入我们部署好的Miloco服务链接(其实就是“https://NAS IP:端口号),然后”点击跳转“。

🔺这样我们就打开了项目的主页。大家可以看到因为我绑定的账号中已经有一个米家摄像头,它在主页面已经显示出来了。

🔺点击摄像头是可以看到当前摄像头所拍下的画面的。

🔺接下来的操作就是将大模型加入进来,点击“模型管理”。

🔺不知道是我个人网络问题还是bug,我点开之后会有一个500的错误提醒。

🔺然后直接点击浏览器的左上角的“后退”按钮就正常了,进来之后点击“添加模型”。

Snipaste_2026-02-13_17-22-43

🔺前面说过我准备的是硅基流动模型,所以Base URLzheli 填“https://api.siliconflow.cn/v1”,API Key就填写你自己的新建的API 秘钥,模型名称建议和我一样,使用“deepseek-ai/DeepSeek-V3.2”和“Qwen/Qwen3-VL-32B-Instruct”两个就可以了。(不排除有更好的选择,小伙伴们可以随意尝试)。

🔺添加好之后再“高级配置”这里,规划大模型选择“deepseek-ai/DeepSeek-V3.2”,视觉理解选择“Qwen/Qwen3-VL-32B-Instruct”,然后就可以使用了。

🔺回到首页“AI中心”,我们直接在对话框中问它“看看画面有什么”,可以看到它也有一个思考的过程,回答的信息也非常详细,并且我也可以很负责的告诉大家,它的准确度是达到了95%以上,还是挺厉害的。

🔺至于创建规则,如果不会我们直接让它自动创建即可。

🔺虽说并不能保证一定成功,或者完全和你的意,但是基本上不需要我们动手,也指出了问题出在哪里,这些操作感觉和现在正火的OpenClaw有异曲同工之妙。

Snipaste_2026-02-13_17-07-27

🔺在“设备管理”中是可以查看当前授权账号下的所有米家智能家居设备,不过目前只是查看,并不能进行具体的操作。

🔺在“设置”中还可以通过Home Assistant 授权加入更多智能家居设备,我这里没有配置Home Assistant ,就不往下演示了~

最后

总之,Miloco 不再是传统意义上“等我们发指令”的智能家居系统,而是一个能主动理解、主动判断、主动行动的全屋 AI 管家。虽说Miloco 目前算不上完美,并且上手还需要花一点时间,但是它已经指出了下一代智能家居的发展方向:把摄像头变成眼睛,把规则交给 AI ,这种组合确实很有想象空间。有兴趣的小伙伴建议先动手部署起来,亲自体验一下这个“战未来”的AI智能项目吧!

目前正值年货节,极空间的各大NAS产品也迎来了超值限时优惠,多款产品又跌入历史低价,可以说是全年最适合入手的时间段之一。同时购买极空间NAS产品还可享受白条3期或6期免息政策,180天内出现质量问题只换不修,2年官方质保。喜欢的小伙伴不要错过这次难得的机会,好好为自己备一个实用又长久的新年大礼吧。

好了,以上就是今天给大家分享的内容,我是爱分享的Stark-C,如果今天的内容对你有帮助请记得收藏,顺便点点关注,咱们下期再见!谢谢大家~

Read more

2026年最强AI写网文工具深度测评:ai写小说软件与AI写作平台全面对比

2026年最强AI写网文工具深度测评:ai写小说软件与AI写作平台全面对比

进入2026年,AI写作市场已经从“野蛮生长”步入了“精耕细作”的阶段。对于网文作者、短剧编剧以及漫剧创作者而言,现在的痛点早已不是“找不到AI工具”,而是“找不到能真正帮自己赚到钱的AI工具”。 市面上的大模型和写作软件多如牛毛,有的主打底层算力,有的主打现成模板。为了帮助大家避开商业化写作中的各种“暗坑”(如高昂的订阅费、平台AI查重退稿等),我们从底层逻辑推演、长文本连贯性、文本拟人度(防检测)、生态闭环与使用成本五个维度,对目前市面上最热门的四款工具——DeepSeek、豆包、笔灵AI、炼字工坊,进行了一次全方位、多角度的硬核排位测评。 一、 核心测评对象与定位 1. 通用算力天花板:DeepSeek —— 以强大的代码和逻辑推演能力霸榜的通用大模型。 2. 国民级灵感助手:豆包 (Doubao) —— 主打便捷交互、语音输入的轻量级AI。 3. 老牌模板化写作工具:笔灵AI —— 较早切入AI写作赛道,依靠预设模板库吸引用户的垂直软件。 4. 全链路商业变现新锐:

Whisper-large-v3详细步骤:云端部署一看就会

Whisper-large-v3详细步骤:云端部署一看就会 你是不是也和我当年一样,刚读研时被导师安排跑通一个语音识别实验,点开Whisper的GitHub页面却一脸懵?各种依赖、环境冲突、CUDA版本不匹配……光是安装就花了三天,还没开始训练模型人已经快崩溃了。别慌!现在完全不用这么折腾了。 今天我要分享的是——如何用预置镜像在云端GPU上,2小时内从零部署Whisper-large-v3并完成语音转文字测试。特别适合像你我这样的研究生小白,不需要懂太多底层细节,只要跟着一步步操作,就能把任务搞定交差。核心思路就是:跳过所有环境配置坑,直接用ZEEKLOG星图平台提供的Whisper专用镜像,一键启动+即拿即用。 这个镜像已经帮你装好了PyTorch、CUDA、HuggingFace Transformers、ffmpeg等所有必要组件,甚至连whisper库都配好了最新版。你只需要上传音频文件,运行几行命令,就能看到结果输出。整个过程就像“打开App→导入视频→点击转换”一样简单。而且支持对外暴露服务接口,后续还能扩展成Web应用或集成到其他系统里。下面我就手把手带你走完全流

扩散模型详解:从DDPM到Stable Diffusion再到DiT的技术演进

扩散模型详解:从DDPM到Stable Diffusion再到DiT的技术演进

1.摘要 扩散模型(Diffusion Models)作为当前最热门的生成模型之一,已彻底改变图像生成领域,本文从DDPM开始,逐步深入到Stable Diffusion和DiT架构。 扩散模型就像是一个"破坏-修复"的过程,想象一下你有一张美丽的图片,然后一点点地给它加上噪声,直到完全看不清原来的图片,然后让AI学会如何一步步把噪声去掉,重新还原出原始图片。这就是扩散模型的基本思路。 2. DDPM:扩散模型的奠基之作(2020年) 2.1 什么是DDPM? DDPM(Denoising Diffusion Probabilistic Models)是扩散模型的开山鼻祖,由OpenAI团队在2020年提出,它的工作原理: 前向过程(加噪声):从一张清晰的图片开始,逐步添加噪声,最终变成完全随机的噪声图。 反向过程(去噪声):训练AI学会如何一步步去除噪声,从随机噪声中重建出原始图片。 2.2 DDPM的模型结构详解 DDPM的核心是一个U-Net网络结构,U-Net详细架构如下图: