OpenClaw + cpolar + 蓝耘MaaS:把家里的 AI 变成“随身数字员工”,出门也能写代码、看NAS电影、远程桌面

OpenClaw + cpolar + 蓝耘MaaS:把家里的 AI 变成“随身数字员工”,出门也能写代码、看NAS电影、远程桌面

目录

前言

1 OpenClaw和cpolar是什么?

1.1 OpenClaw:跑在你自己电脑上的本地 AI 智能体

1.2 cpolar:打通内网限制的内网穿透桥梁

2 下载 安装cpolar

2.1 下载cpolar

2.2 蓝耘 MaaS 平台:给 OpenClaw 装上“最强大脑”

2.3 注册及登录cpolar web ui管理界面

2.4 一键安装 OpenClaw 并对接蓝耘 MaaS

3 OpenClaw + cpolar 的 N 种玩法

3.1 出门在外也能看家里 NAS 上的电影

3.2 让 OpenClaw 写个贪吃蛇小游戏并一键分享给朋友

3.3 在外远程控制家里的 Windows 电脑

总结


前言

费半天劲把 OpenClaw 装好,结果发现出了门就没法用,这确实挺让人郁闷的。明明是个隐私性好、功能又强的本地 AI,非得被局限在家里的局域网里,确实有点浪费。其实我也遇到过同样的情况,后来发现不用折腾公网 IP,也不用改路由器配置,用 cpolar 做个内网穿透就能轻松解决。不管你是出差、上班还是坐地铁,只要有网,手机和平板都能连上家里的 AI。这篇文章就讲讲怎么简单几步把 OpenClaw 变成随身可用的工具。

1 OpenClaw和cpolar是什么?

1.1 OpenClaw:跑在你自己电脑上的本地 AI 智能体

简单来说,OpenClaw 就是一个跑在你自己电脑上的 AI。跟那些在线服务不一样,它的所有数据都在你本地硬盘里,不用担心隐私泄露或者被拿去训练模型。只要电脑配置跟得上,它就能帮你审稿、写代码、查资料,主打一个安全放心。

1.2 cpolar:打通内网限制的内网穿透桥梁

OpenClaw 默认只能在局域网里跑,外面连不上。这时候就需要 cpolar 了,它是个内网穿透工具,能把局域网里的服务(比如 Web 服务、远程桌面)通过加密隧道映射到公网,不用你动路由器的任何设置,就能让外网设备直接访问。支持 Windows、Mac、Linux 等各种系统,安装也挺方便。

2 下载 安装cpolar

2.1 下载cpolar

去 cpolar 官网下载页面,点那个“立即下载 64-bit”按钮。下下来是个压缩包,解压后直接装,一路默认选项就行。装好了打开命令行(cmd),输入 cpolar version,要是能看到版本号,就说明装好了。

下来下来是一个压缩包,解压后执行目录种的应用程序,一路默认安装即可,安装完成后,打开cmd窗口输入如下命令确认安装:

cpolar version

出现如上版本即代表安装成功!

2.2 蓝耘 MaaS 平台:给 OpenClaw 装上“最强大脑”

前面介绍了 OpenClaw 这个“躯干”和 cpolar 这个“通道”,要让 AI 真正跑得快、想得深,还少不了第三个主角——蓝耘 MaaS 平台。它就像是 OpenClaw 的“超级大脑”,提供了丰富的模型支持。

蓝耘 MaaS 平台的优势主要体现在三点:

  • 一是模型资源丰富,不管是主流的开源大模型还是特定行业的微调模型,平台上都能找得到,OpenClaw 可以直接调用,省去了自己找模型、下模型的麻烦;
  • 二是算力性价比高,对于本地显卡配置不够给力的用户,通过蓝耘的云端算力跑模型,速度快还不吃本地资源;
  • 三是部署对接简单,它提供了非常友好的 API 接口,和 OpenClaw 配合使用简直是天作之合,让你的本地 AI 瞬间拥有媲美云端大模型的智慧。

2.3 注册及登录cpolar web ui管理界面

还是去官网,点免费注册搞个账号。注册完后,浏览器打开 http://127.0.0.1:9200,用刚才注册的账号登录,就能进后台管理界面了 。

2.4 一键安装 OpenClaw 并对接蓝耘 MaaS

在新开的PowerShell里,粘贴下面这行神奇的命令,然后回车。

iwr -useb https://openclaw.ai/install.ps1 | iex

接下来就是等待,脚本会自动下载安装OpenClaw。中途会弹出一些配置选项,跟着指引走就行。

来到选择 【AI大脑供应商】页面,也就是给OpenClaw配置一个AI大模型:

这里我选择【蓝耘MaaS】等平台,这里以蓝耘MaaS为例。

点击侧边栏的【API密钥】,然后进行新建密钥:

创建好以后,点击【复制】按钮,将密钥复制下来备用:

接着,继续回到PoweShell终端的配置OpenClaw界面,用键盘输入【openclaw config】回车,进行自定义配置。

在【API Base URL】这一栏中,将默认的地址去掉,填写如下【蓝耘MaaS】的Base API地址:

https://maas-api.lanyun.net/v1

安装完成后会弹出新的窗口,进行启动OpenClaw的GateWay服务:

在原来配置的PowerShell选择【Open the Web UI】后,会自动跳转浏览器打开,打开后就是OpenClaw的聊天界面:

3 OpenClaw + cpolar 的 N 种玩法

3.1 出门在外也能看家里 NAS 上的电影

家里有 NAS 存了不少电影,比如部署了 OpenList 服务。在家用局域网 IP 看没问题,一旦出门在外想看就不行了。这时候直接跟 OpenClaw 说:“我的 OpenList 在 NAS 上,地址是

我的OpenList服务部署在局域网中的飞牛Nas上,OpenList的访问地址为<http://192.168.50.228:5244>,我的电脑上有cpolar,请你用cpolar穿透局域网的这个服务,给我一个公网地址,我要在外面进行访问我的OpenList看电影

如下图:

稍等片刻,我们就可以看到OpenClaw直接给我们输出了一个链接 地址,让我们访问它给的地址看看:

https://54e9cc9b.r3.nas.cpolar.cn

访问如下:

可以看到成功的访问到了飞牛Nas中部署的OpenList服务,让我们登录播放测试一下:

可以看到能够成功的看到OpenList服务里面挂载的资源!这样,我们成功的让OpenClaw帮我们完成了观看家里Nas中电影资源的需求!

3.2 让 OpenClaw 写个贪吃蛇小游戏并一键分享给朋友

周末想摸鱼或者跟朋友找点乐子,直接让 OpenClaw 写个贪吃蛇游戏,要求“用 HTML 写,好看点,并在本地起个服务”。它很快就能生成好,并给你个本地地址让你在浏览器玩。

比如现在,咱们直接和 OpenClaw 说:

帮我写一个贪吃蛇小游戏,要好看一点,用HTML写,写完后帮我在本地起一个服务,让我能在浏览器里直接玩

如下图:

稍等片刻,OpenClaw 就会帮你生成一个完整的贪吃蛇小游戏,并且直接在本地启动一个 Web 服务。我们可以通过它给出的本地地址在浏览器里直接打开玩(GIF动图,操作部分做加速处理了):

是不是很酷!游戏直接跑起来了,画面也挺好看的。但问题来了——这个游戏目前只能你自己玩,朋友想一起体验?他们可访问不到你电脑上的 localhost。

这时候,cpolar 的作用又来了!我们继续和 OpenClaw 说:

这个游戏太好玩了,我想分享给朋友一起玩,请你用cpolar帮我把这个游戏的本地服务穿透到公网,给我一个公网链接

OpenClaw 又是一顿操作,很快就给我们吐出了一个公网链接,比如:

https://62f62d1.r3.nas.cpolar.cn/snake.html

直接访问它给我们的链接:

可以看到,成功的访问到了贪吃蛇的小游戏页!朋友直接就能在浏览器里打开你的贪吃蛇游戏了!不需要下载任何东西,点开链接就能玩,是不是超方便?这就是 OpenClaw + cpolar 的魅力——从"一句话生成游戏"到"一键分享给全世界",全程不需要你写一行代码,也不需要你懂任何网络配置。

3.3 在外远程控制家里的 Windows 电脑

你有没有遇到过这种抓狂的情况:人已经到公司了,突然想起一份重要文件忘在家里电脑的桌面上了。或者出差在外,需要临时用一下家里那台性能怪兽跑个程序。这时候要是能直接远程操控家里的电脑,那该多好?

Windows 系统其实自带了**远程桌面(RDP)**功能,但它默认走的是 3389 端口,只能在局域网内使用。一旦你出了家门,这条路就断了。不过有了 OpenClaw + cpolar,这事儿同样是一句话搞定。

首先,确保你的 Windows 电脑已经提前开启了远程桌面功能。打开 设置 → 系统 → 远程桌面,把开关打开就行:

然后,咱们直接和 OpenClaw 说:

我想在外面远程控制我家里的这台Windows电脑,我的电脑已经开启了远程桌面,端口是默认的3389,请你用cpolar帮我把3389端口穿透到公网,给我一个公网地址,让我在外面可以远程连接

如下图:

OpenClaw 很快就帮我们创建好了一条 TCP 隧道,并给出了公网地址,比如:

tcp://1.tcp.nas.cpolar.cn:11748

现在,无论你在公司、咖啡厅还是出差的酒店,只要打开 Windows 自带的远程桌面连接工具(按 Win + R,输入 mstsc 回车),在计算机一栏填入 OpenClaw 给你的公网地址(注意去掉前面的 tcp://),点击连接:

输入你家里电脑的用户名和密码(建议设置安全系数高的密码,或者临时使用):

输入完成后就能直接连接看到家里电脑的桌面了!

总结

这篇文章主要就是教大家怎么把 OpenClaw 从局域网里“解放”出来,通过 cpolar 打通网络限制,再借助蓝耘 MaaS 平台提供强大的模型支持,这“三剑客”联手,让你的 AI 体验直接拉满。不管是看 NAS 电影、写游戏分享、远程桌面,还是把 AI 本身穿透出去随时用,这套组合都能轻松搞定。不用公网 IP,不用复杂配置,几分钟就能弄好。赶紧试试,让你的 AI 真正为你所用。

Read more

Llama 与 PyTorch:大模型开发的黄金组合

Llama 与 PyTorch:大模型开发的黄金组合

Llama 与 PyTorch:大模型开发的黄金组合 近年来,大型语言模型(LLM)迅速成为人工智能领域的核心驱动力。Meta 开源的 Llama 系列模型(包括 Llama、Llama2、Llama3)凭借其卓越的性能和开放策略,成为学术界与工业界广泛采用的基础模型。而 PyTorch 作为当前最主流的深度学习框架之一,以其动态计算图、易用性和强大的社区生态,成为训练和部署 LLM 的首选工具。 本文将深入探讨 Llama 模型与 PyTorch 之间的紧密关系,解析为何 PyTorch 成为 Llama 开发与优化的“天然搭档”,并介绍如何基于 PyTorch 构建、微调和部署 Llama 模型。 一、Llama 模型简介 Llama(Large Language Model

微软 Copilot Cowork 深度解析:用 Kotlin + 147API 手搓一个 AI Agent

微软 Copilot Cowork 深度解析:用 Kotlin + 147API 手搓一个 AI Agent

微软最近发布的 Copilot Cowork 在技术圈炸开了锅。它变了。它不再是那个只会补全代码的插件,而是变成了你的 “Coworker”(同事)。基于 Anthropic 的 Claude 构建,它现在能像真人一样处理复杂任务。 作为开发者,我们不仅要会用,更要懂得背后的原理。今天我们就来拆解一下 Copilot Cowork 的核心逻辑,并教你如何利用 Kotlin 和 147API 构建一个属于自己的简易 AI Agent。 从 Chatbot 到 Agent 传统的 Copilot 就像一个实习生,你给它一个指令,它执行一个动作。而 Copilot Cowork 更像是一个成熟的合作伙伴。它具备了 感知(Perception)、规划(Planning) 和 执行(Execution)

手把手教你用Ollama部署DeepSeek-R1-Distill-Llama-8B

手把手教你用Ollama部署DeepSeek-R1-Distill-Llama-8B 想在自己的电脑上快速体验DeepSeek最新推理模型的能力吗?还在为复杂的模型部署流程头疼吗?今天我就带你用最简单的方法,在10分钟内完成DeepSeek-R1-Distill-Llama-8B的部署和测试。 这个模型是DeepSeek最新发布的推理模型系列中的轻量级版本,专门针对数学推理、代码生成和逻辑分析任务进行了优化。最棒的是,它通过Ollama这个工具,让部署变得像安装普通软件一样简单。 1. 准备工作:了解你要部署的模型 1.1 DeepSeek-R1系列模型是什么? DeepSeek-R1是DeepSeek推出的第一代推理模型系列,这个系列最大的特点是专门针对推理任务进行了优化。你可能听说过很多大语言模型,但专门为推理设计的模型并不多见。 简单来说,普通的大语言模型像是一个知识渊博的学者,能记住很多信息,但推理模型更像是一个逻辑严密的数学家,它更擅长一步步推导、分析问题、找到解决方案。 DeepSeek-R1系列有两个主要版本: * DeepSeek-R1-Zero:完

AI绘画新选择!Z-Image-Turbo真实使用体验报告

AI绘画新选择!Z-Image-Turbo真实使用体验报告 你有没有过这样的经历:输入一段精心打磨的提示词,点击生成,然后盯着进度条数秒——等来的却是一张构图失衡、手部畸形、文字模糊的图?或者更糟:显卡风扇狂转,温度飙升,而模型还在第37步缓慢爬行……直到你默默关掉网页,打开手机刷短视频。 这不是你的错。是工具不够好。 最近两周,我把Z-Image-Turbo装进日常工作流,从电商海报到公众号配图,从产品概念草图到中文文案配图,每天生成不下50张图。它没让我再等过3秒以上,也没让我的RTX 4090显存爆过一次红。更重要的是——它第一次让我觉得,AI绘画这件事,真的可以“不折腾”。 这不是又一个参数炫技的模型,也不是套壳包装的云服务。Z-Image-Turbo是阿里通义实验室开源的真正为实用而生的文生图引擎:8步出图、16GB显存跑满、中英文提示原生理解、照片级细节还原、Gradio界面开箱即用。它不追求“最惊艳”,但每一张图都稳、准、快、实。 下面这份报告,没有PPT式术语堆砌,没有实验室指标截图,只有我亲手敲过的命令、截过的界面、对比过的图、