OpenClaw + cpolar + 蓝耘MaaS:把家里的 AI 变成“随身数字员工”,出门也能写代码、看NAS电影、远程桌面

OpenClaw + cpolar + 蓝耘MaaS:把家里的 AI 变成“随身数字员工”,出门也能写代码、看NAS电影、远程桌面

目录

前言

1 OpenClaw和cpolar是什么?

1.1 OpenClaw:跑在你自己电脑上的本地 AI 智能体

1.2 cpolar:打通内网限制的内网穿透桥梁

2 下载 安装cpolar

2.1 下载cpolar

2.2 蓝耘 MaaS 平台:给 OpenClaw 装上“最强大脑”

2.3 注册及登录cpolar web ui管理界面

2.4 一键安装 OpenClaw 并对接蓝耘 MaaS

3 OpenClaw + cpolar 的 N 种玩法

3.1 出门在外也能看家里 NAS 上的电影

3.2 让 OpenClaw 写个贪吃蛇小游戏并一键分享给朋友

3.3 在外远程控制家里的 Windows 电脑

总结


前言

费半天劲把 OpenClaw 装好,结果发现出了门就没法用,这确实挺让人郁闷的。明明是个隐私性好、功能又强的本地 AI,非得被局限在家里的局域网里,确实有点浪费。其实我也遇到过同样的情况,后来发现不用折腾公网 IP,也不用改路由器配置,用 cpolar 做个内网穿透就能轻松解决。不管你是出差、上班还是坐地铁,只要有网,手机和平板都能连上家里的 AI。这篇文章就讲讲怎么简单几步把 OpenClaw 变成随身可用的工具。

1 OpenClaw和cpolar是什么?

1.1 OpenClaw:跑在你自己电脑上的本地 AI 智能体

简单来说,OpenClaw 就是一个跑在你自己电脑上的 AI。跟那些在线服务不一样,它的所有数据都在你本地硬盘里,不用担心隐私泄露或者被拿去训练模型。只要电脑配置跟得上,它就能帮你审稿、写代码、查资料,主打一个安全放心。

1.2 cpolar:打通内网限制的内网穿透桥梁

OpenClaw 默认只能在局域网里跑,外面连不上。这时候就需要 cpolar 了,它是个内网穿透工具,能把局域网里的服务(比如 Web 服务、远程桌面)通过加密隧道映射到公网,不用你动路由器的任何设置,就能让外网设备直接访问。支持 Windows、Mac、Linux 等各种系统,安装也挺方便。

2 下载 安装cpolar

2.1 下载cpolar

去 cpolar 官网下载页面,点那个“立即下载 64-bit”按钮。下下来是个压缩包,解压后直接装,一路默认选项就行。装好了打开命令行(cmd),输入 cpolar version,要是能看到版本号,就说明装好了。

下来下来是一个压缩包,解压后执行目录种的应用程序,一路默认安装即可,安装完成后,打开cmd窗口输入如下命令确认安装:

cpolar version

出现如上版本即代表安装成功!

2.2 蓝耘 MaaS 平台:给 OpenClaw 装上“最强大脑”

前面介绍了 OpenClaw 这个“躯干”和 cpolar 这个“通道”,要让 AI 真正跑得快、想得深,还少不了第三个主角——蓝耘 MaaS 平台。它就像是 OpenClaw 的“超级大脑”,提供了丰富的模型支持。

蓝耘 MaaS 平台的优势主要体现在三点:

  • 一是模型资源丰富,不管是主流的开源大模型还是特定行业的微调模型,平台上都能找得到,OpenClaw 可以直接调用,省去了自己找模型、下模型的麻烦;
  • 二是算力性价比高,对于本地显卡配置不够给力的用户,通过蓝耘的云端算力跑模型,速度快还不吃本地资源;
  • 三是部署对接简单,它提供了非常友好的 API 接口,和 OpenClaw 配合使用简直是天作之合,让你的本地 AI 瞬间拥有媲美云端大模型的智慧。

2.3 注册及登录cpolar web ui管理界面

还是去官网,点免费注册搞个账号。注册完后,浏览器打开 http://127.0.0.1:9200,用刚才注册的账号登录,就能进后台管理界面了 。

2.4 一键安装 OpenClaw 并对接蓝耘 MaaS

在新开的PowerShell里,粘贴下面这行神奇的命令,然后回车。

iwr -useb https://openclaw.ai/install.ps1 | iex

接下来就是等待,脚本会自动下载安装OpenClaw。中途会弹出一些配置选项,跟着指引走就行。

来到选择 【AI大脑供应商】页面,也就是给OpenClaw配置一个AI大模型:

这里我选择【蓝耘MaaS】等平台,这里以蓝耘MaaS为例。

点击侧边栏的【API密钥】,然后进行新建密钥:

创建好以后,点击【复制】按钮,将密钥复制下来备用:

接着,继续回到PoweShell终端的配置OpenClaw界面,用键盘输入【openclaw config】回车,进行自定义配置。

在【API Base URL】这一栏中,将默认的地址去掉,填写如下【蓝耘MaaS】的Base API地址:

https://maas-api.lanyun.net/v1

安装完成后会弹出新的窗口,进行启动OpenClaw的GateWay服务:

在原来配置的PowerShell选择【Open the Web UI】后,会自动跳转浏览器打开,打开后就是OpenClaw的聊天界面:

3 OpenClaw + cpolar 的 N 种玩法

3.1 出门在外也能看家里 NAS 上的电影

家里有 NAS 存了不少电影,比如部署了 OpenList 服务。在家用局域网 IP 看没问题,一旦出门在外想看就不行了。这时候直接跟 OpenClaw 说:“我的 OpenList 在 NAS 上,地址是

我的OpenList服务部署在局域网中的飞牛Nas上,OpenList的访问地址为<http://192.168.50.228:5244>,我的电脑上有cpolar,请你用cpolar穿透局域网的这个服务,给我一个公网地址,我要在外面进行访问我的OpenList看电影

如下图:

稍等片刻,我们就可以看到OpenClaw直接给我们输出了一个链接 地址,让我们访问它给的地址看看:

https://54e9cc9b.r3.nas.cpolar.cn

访问如下:

可以看到成功的访问到了飞牛Nas中部署的OpenList服务,让我们登录播放测试一下:

可以看到能够成功的看到OpenList服务里面挂载的资源!这样,我们成功的让OpenClaw帮我们完成了观看家里Nas中电影资源的需求!

3.2 让 OpenClaw 写个贪吃蛇小游戏并一键分享给朋友

周末想摸鱼或者跟朋友找点乐子,直接让 OpenClaw 写个贪吃蛇游戏,要求“用 HTML 写,好看点,并在本地起个服务”。它很快就能生成好,并给你个本地地址让你在浏览器玩。

比如现在,咱们直接和 OpenClaw 说:

帮我写一个贪吃蛇小游戏,要好看一点,用HTML写,写完后帮我在本地起一个服务,让我能在浏览器里直接玩

如下图:

稍等片刻,OpenClaw 就会帮你生成一个完整的贪吃蛇小游戏,并且直接在本地启动一个 Web 服务。我们可以通过它给出的本地地址在浏览器里直接打开玩(GIF动图,操作部分做加速处理了):

是不是很酷!游戏直接跑起来了,画面也挺好看的。但问题来了——这个游戏目前只能你自己玩,朋友想一起体验?他们可访问不到你电脑上的 localhost。

这时候,cpolar 的作用又来了!我们继续和 OpenClaw 说:

这个游戏太好玩了,我想分享给朋友一起玩,请你用cpolar帮我把这个游戏的本地服务穿透到公网,给我一个公网链接

OpenClaw 又是一顿操作,很快就给我们吐出了一个公网链接,比如:

https://62f62d1.r3.nas.cpolar.cn/snake.html

直接访问它给我们的链接:

可以看到,成功的访问到了贪吃蛇的小游戏页!朋友直接就能在浏览器里打开你的贪吃蛇游戏了!不需要下载任何东西,点开链接就能玩,是不是超方便?这就是 OpenClaw + cpolar 的魅力——从"一句话生成游戏"到"一键分享给全世界",全程不需要你写一行代码,也不需要你懂任何网络配置。

3.3 在外远程控制家里的 Windows 电脑

你有没有遇到过这种抓狂的情况:人已经到公司了,突然想起一份重要文件忘在家里电脑的桌面上了。或者出差在外,需要临时用一下家里那台性能怪兽跑个程序。这时候要是能直接远程操控家里的电脑,那该多好?

Windows 系统其实自带了**远程桌面(RDP)**功能,但它默认走的是 3389 端口,只能在局域网内使用。一旦你出了家门,这条路就断了。不过有了 OpenClaw + cpolar,这事儿同样是一句话搞定。

首先,确保你的 Windows 电脑已经提前开启了远程桌面功能。打开 设置 → 系统 → 远程桌面,把开关打开就行:

然后,咱们直接和 OpenClaw 说:

我想在外面远程控制我家里的这台Windows电脑,我的电脑已经开启了远程桌面,端口是默认的3389,请你用cpolar帮我把3389端口穿透到公网,给我一个公网地址,让我在外面可以远程连接

如下图:

OpenClaw 很快就帮我们创建好了一条 TCP 隧道,并给出了公网地址,比如:

tcp://1.tcp.nas.cpolar.cn:11748

现在,无论你在公司、咖啡厅还是出差的酒店,只要打开 Windows 自带的远程桌面连接工具(按 Win + R,输入 mstsc 回车),在计算机一栏填入 OpenClaw 给你的公网地址(注意去掉前面的 tcp://),点击连接:

输入你家里电脑的用户名和密码(建议设置安全系数高的密码,或者临时使用):

输入完成后就能直接连接看到家里电脑的桌面了!

总结

这篇文章主要就是教大家怎么把 OpenClaw 从局域网里“解放”出来,通过 cpolar 打通网络限制,再借助蓝耘 MaaS 平台提供强大的模型支持,这“三剑客”联手,让你的 AI 体验直接拉满。不管是看 NAS 电影、写游戏分享、远程桌面,还是把 AI 本身穿透出去随时用,这套组合都能轻松搞定。不用公网 IP,不用复杂配置,几分钟就能弄好。赶紧试试,让你的 AI 真正为你所用。

Read more

【愚公系列】《AI短视频创作一本通》012-AI 短视频分镜头设计(AI绘画提示词入门)

【愚公系列】《AI短视频创作一本通》012-AI 短视频分镜头设计(AI绘画提示词入门)

💎【行业认证·权威头衔】 ✔ 华为云天团核心成员:特约编辑/云享专家/开发者专家/产品云测专家 ✔ 开发者社区全满贯:ZEEKLOG博客&商业化双料专家/阿里云签约作者/腾讯云内容共创官/掘金&亚马逊&51CTO顶级博主 ✔ 技术生态共建先锋:横跨鸿蒙、云计算、AI等前沿领域的技术布道者 🏆【荣誉殿堂】 🎖 连续三年蝉联"华为云十佳博主"(2022-2024) 🎖 双冠加冕ZEEKLOG"年度博客之星TOP2"(2022&2023) 🎖 十余个技术社区年度杰出贡献奖得主 📚【知识宝库】 覆盖全栈技术矩阵: ◾ 编程语言:.NET/Java/Python/Go/Node… ◾ 移动生态:HarmonyOS/iOS/Android/小程序 ◾ 前沿领域:

LLaMA-Factory本地部署与离线安装指南

LLaMA-Factory本地部署与离线安装实战指南 在大模型技术飞速发展的今天,越来越多企业和开发者希望基于主流预训练模型构建专属的垂直领域AI能力。然而,从环境配置到微调训练,整个流程往往伴随着复杂的依赖管理和网络限制问题——尤其是在内网部署、数据安全要求严格的生产环境中。 LLaMA-Factory 正是为解决这一痛点而生。它不仅集成了全参数微调、LoRA、QLoRA 等多种高效微调方法,还提供了直观的 WebUI 操作界面,真正实现了“开箱即用”。更关键的是,其对多后端推理引擎(如 vLLM)、量化格式(GPTQ/AWQ/HQQ)和优化技术(FlashAttention-2、Unsloth)的全面支持,让资源受限场景下的高性能训练成为可能。 但如果你所在的服务器无法访问公网?如何确保在防火墙之后依然能顺利搭建这套系统?本文将带你一步步完成 本地化部署 与 完全离线安装 的全过程,尤其适用于金融、政务、制造等对网络隔离有严格要求的行业环境。 我们先从最简单的在线安装说起,再深入剖析无网环境下的完整迁移方案。你会发现,只要掌握核心思路,即使是跨机器的复杂部署,也能变得清晰可

ComfyUI:AI绘画与图像生成的高效工作流(从入门到提效:节点思维 + 模板复用 + 插件管理)

ComfyUI:AI绘画与图像生成的高效工作流(从入门到提效:节点思维 + 模板复用 + 插件管理)

🔥 个人主页:杨利杰YJlio❄️ 个人专栏:《Sysinternals实战教程》《Windows PowerShell 实战》《WINDOWS教程》《IOS教程》《微信助手》《锤子助手》《Python》《Kali Linux》《那些年未解决的Windows疑难杂症》🌟 让复杂的事情更简单,让重复的工作自动化 文章目录 * ComfyUI:AI绘画与图像生成的高效工作流(从入门到提效:节点思维 + 模板复用 + 插件管理) * 一、ComfyUI 是什么?它为什么更“高效”🤖 * 二、核心概念:用“节点思维”理解 Stable Diffusion 工作流🧠 * 三、效率提升关键:选对分辨率与参数(以 SDXL 为例)⚙️ * 1)建议的“省心参数”(我常用) * 四、实战:搭一个“

Continue插件实现本地部署一个“cursor”或“github copilot”

Continue插件实现本地部署一个“cursor”或“github copilot”

本地部署 AI 代码助手,制作一个 Cursor/GitHub Copilot 的替代版本 一 需求分析 * 本地部署的定义与优势(数据隐私、离线使用、定制化)。 * Cursor 与 GitHub Copilot 的功能(代码补全、对话交互、模型差异)。 * 本地部署的AI 代码助手适用场景:企业内网开发、敏感数据环境。 二 环境准备与工具选择 * 硬件要求:GPU 要对应上你所部署的模型大小 * 模型选择:qwen2.5-14b-instruct (这里选择千问的大模型) 三 部署开源模型 这里不详细介绍具体的大模型部署的具体过程,部署完成之后,你应该得到对应的模型的以下信息 model: "qwen2.5-14b-instruct" apiBase: "http://你的ip地址(自己的本机就写localhost)