本地部署智能家居集成解决方案 ESPHome 并实现外部访问( Linux 版本)

本地部署智能家居集成解决方案 ESPHome 并实现外部访问( Linux 版本)

ESPHome 是一款用于 ESP8266 和 ESP32 芯片设备的开源系统,它允许用户通过定义简单的 YAML 配置文件来创建复杂的物联网( IoT )设备应用,而无需直接编写底层代码,特别适合于智能家居解决方案,可以与 Home Assistant 完美集成,但也可以独立使用。本文将详细介绍如何在 Linux 系统局域网内部署 ESPHome 并结合路由侠实现外网访问局域网内部署的 ESPHome 。

第一步,本地部署 ESPHome

1,本教程使用 Linux Ubuntu 系统进行演示,首先输入以下命令更新软件包列表并安装一些必要的依赖项。

sudo apt-get update && sudo apt-get install -y python3-pip python3-dev git

2,安装虚拟环境 venv 模块。

sudo apt install -y python3-venv

创建一个虚拟环境(例如在 ~/venv_esphome )。

python3 -m venv ~/venv_esphome

激活虚拟环境。

source ~/venv_esphome/bin/activate

3,使用清华源加速下载安装 esphome 。

pip install esphome -i https://pypi.tuna.tsinghua.edu.cn/simple

验证是否安装成功。

esphome --version

4,创建并进入一个空的 ESPHome 项目目录。

mkdir ~/esphome-dashboard cd ~/esphome-dashboard

使用向导创建配置文件,按照提示完成。

esphome wizard your_device.yaml

5,在项目目录中运行以下命令启动 ESPHome Dashboard 。

esphome dashboard .

6,打开浏览器访问地址 http://你的服务器 IP:6052 ,就能看到你部署的 ESPHome 界面了。

第二步,外网访问本地 ESPHome

安装路由侠内网穿透。

1,当前未提供网页管理,需要先在任意一台 Windows 机器安装路由侠 Windows 版本,用作跨机器管理。点此下载

2,在路由侠客户端主界面,进入“ 设备管理 ”,点击右下角的“ 添加设备 ”,此时可查看到对应的安装码,此安装码用于将设备添加到对应账号下,可选中后复制。

3,直接下载后导入:

wget https://dl.luyouxia.com:8443/v2/lyx-docker-x86_64.tar docker load -i lyx-docker-x86_64.tar

4,然后使用该镜像启动容器。

docker run --name lyx -it --restart=always --net=host -e code=这里填写安装码 luyouxia/lyx

5,此时,需要等待下载和安装的过程,如果一切正常,最终可以看到一些输出,并且可以看到如下提示:

[Device] Logged in. Token: ....

这就表示安装成功了。

当前 Linux 终端这边,如果是使用的上面的命令,Docker 是运行在前台,此时可以按住 Ctrl + C ,退出路由侠,容器也将退出。现在可以使用以下命令将其放入后台持续运行:

docker start lyx

注意如果容器删除,重新 docker run , 将创建为新的设备。

需要注意的是,因为容器参数已经添加了 --restart=always ,这样开机就会自动启动,不需要再手动启动路由侠了。

6,现在回到 Windows 这边设备列表,点击右上角的 × 返回主界面,再次进入,就可以找到这个设备,可以修改名称。

7,回到主界面,点击【内网映射】。

8,注意右上角的设备名称下拉框,这里选中刚刚添加的设备名称,此时在这个界面上添加的映射,就属于刚刚这个设备。添加或修改一般需要等待 30 秒,容器中的路由侠进程就会更新并加载。切换好设备后,点击【添加映射】。

9,选择【原生端口】。

10,在内网地址填写你的服务器 IP 和 ESPHome 端口 6052 后点击【创建】按钮,如下图。

11,创建好后,就可以看到一条映射的公网地址,鼠标右键点击【复制地址】。

12,在外网电脑上,打开浏览器,在地址栏输入从路由侠生成的外网地址,就可以看到内网部署的 ESPHome 界面了。

Read more

AI的提示词专栏:开源模型(Mistral、Qwen)Prompt 实验报告

AI的提示词专栏:开源模型(Mistral、Qwen)Prompt 实验报告

AI的提示词专栏:开源模型(Mistral、Qwen)Prompt 实验报告 本文为明确开源模型 Prompt 适配特性,本实验以 Mistral(7B/13B)与 Qwen(7B/14B)为对象,在统一硬件软件环境与推理参数(Temperature 0.7、Top-P 0.9 等)下,测试其在基础指令、Few-Shot、Chain-of-Thought(CoT)推理、角色扮演四类 Prompt 中的表现。结果显示,参数量显著影响性能,13B/14B 模型各项指标优于 7B 模型;Qwen-14B 在中文指令理解、推理步骤拆解及角色一致性上表现突出,Mistral 系列推理速度更快。实验还针对两类模型提出 Prompt 优化建议,

解析 skill-creator:如何编写高质量的 AI Skill

解析 skill-creator:如何编写高质量的 AI Skill

本文通过深入分析 Anthropic 官方 skill-creator 代码仓库,提炼出一套编写高质量 Agent Skill 的完整方法论。这些原则适用于 OpenCode、Claude Code、Cursor 等所有支持 Agent Skills 开放标准的 AI 工具。 一.从 skill-creator 仓库我们能学到什么? 1.1 skill-creator 是什么? skill-creator 是 Anthropic 官方维护的一个 Skill,它的唯一目的就是教 AI 如何创建有效的 Skill。通过分析这个"教 AI 教 AI"的元 Skill,我们可以获得第一手的最佳实践。 仓库地址:github.com/

【2025年度创作】分享和总结如何通过AI快速开发一款MCP(模型上下文协议)服务插件,并进行本地和线上部署测试,最后上架MCP以及智能体调用MCP插件

【2025年度创作】分享和总结如何通过AI快速开发一款MCP(模型上下文协议)服务插件,并进行本地和线上部署测试,最后上架MCP以及智能体调用MCP插件

一年一度的ZEEKLOG博客之星活动现已开启!时光飞逝,2025的代码即将合上尾页,指针向前,2026的技术新篇静待启封。这一年,我依然坚持在ZEEKLOG平台持续创作,也见证了AI与智能体领域的持续升温,特别是MCP(模型上下文协议)技术带来的崭新突破。 值此ZEEKLOG平台年度技术盛会之际,博主将撰写一篇技术实战总结型文章,系统分享如何利用AI高效开发MCP服务插件,涵盖从本地调试、线上部署到智能体使用的全流程。 目录 * MCP简介 * 安装插件 * MCP开发 * 创建表 * 提示词 * 启动服务 * 本地部署MCP * 调用测试 * 线上部署 * 上传源码 * 安装Python * 安装依赖 * 启动服务 * nginx反向代理 * 本地测试 * 上架MCP * 使用MCP * MCP和API区别 * 总结 MCP简介 MCP(Model Context Protocol,模型上下文协议) 是专为大语言模型(LLM)应用设计的开放协议,旨在实现 LLM 与外部工具和数据源的无

机器人必备知识——关于李群、李代数的理解

机器人必备知识——关于李群、李代数的理解

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档 目录 前言 一、问题提出 1.1 位姿的表述 1.2 矩阵求导的问题 二、李群 2.1 群数学定义 2.2 李群和李代数的数学定义 2.3 欧拉公式 三、李群在机器人中的应用 3.1 SO(3)特殊正交群 3.2 SE(3)特殊欧氏群 总结 前言 在对机器人技术的学习过程中,我们经常会听到“旋量”、“四元数”、“李群”、“李代数”等一些听起来高大上的词汇。首先得认识到,这些词汇都是实用的而非像“神经元”、“类脑”