ChatGPT替代品?LocalAI+CPolar打造你的隐私保护AI实验室

ChatGPT替代品?LocalAI+CPolar打造你的隐私保护AI实验室

文章目录

前言

当你用AI处理客户合同却担心数据被训练时,当企业因合规要求禁止使用云端API时——LocalAI的出现就像给数据安全上了"双重保险"。这款开源工具能让Llama、Phi等大模型直接跑在你的笔记本上,全程不上传任何数据,还完美兼容OpenAI API。特别适合处理商业机密的律师、需要离线工作的科研人员,以及对"数据主权"有执念的技术极客。最惊艳的是它的CPU推理能力:我的老旧ThinkPad都能流畅运行7B模型,彻底打破"AI必须依赖GPU"的神话 🖥️

作为经常处理敏感数据的程序员,我被它的"隐形模式"彻底征服。上周帮医疗团队分析病例文本,LocalAI在本地完成实体识别,原始数据从未离开医院内网——这种"结果输出但数据不留痕"的能力,让客户当场决定采购十套。不过要注意:首次使用需预留10GB以上存储空间;复杂任务建议选择量化模型。最意外的是模型兼容性,我用ChatGPT的代码改了两行就能对接LocalAI,迁移成本几乎为零。

但局域网的限制曾让这份安全感打折扣:家里的台式机部署了LocalAI,笔记本却无法访问;团队协作时,同事必须到我工位才能使用定制模型。最尴尬的是参加黑客马拉松时,想用LocalAI辅助开发,却发现现场网络禁止外部API调用——准备了半年的AI功能直接变成摆设。

直到CPolar为我的AI实验室开了"安全后门"🌐。现在localai.cpolar.cn这个固定地址就是我的"隐私AI网关":在咖啡馆用平板就能调用家里的模型,客户通过加密链接使用定制AI服务。上个月给银行做项目时,我们在隔离网络中部署LocalAI,通过CPolar实现开发机远程调试——这种"内外网隔离+数据本地化"的方案,连甲方的安全审计都挑不出毛病。最关键的是成本控制,用旧电脑跑LocalAI+CPolar,每年省下近万元API调用费。

本文主要介绍如何在本地服务器部署无需依托高昂价格的GPU,也可以在本地运行离线AI项目的开源AI神器LoaclAI,并结合cpolar内网穿透轻松实现远程使用的超详细教程。

image-20250107161115378

【视频教程】

支持CPU推理运行的开源AI神器LocalAI本地安装与远程使用教程

1. Docker部署

本例使用Ubuntu 22.04进行演示,使用Docker进行部署,如果没有安装Docker,可以查看这篇教程进行安装:《Docker安装教程——Linux、Windows、MacOS》

安装好Docker后,打开终端执行这行命令启动容器即可:

sudo docker run -ti --name local-ai -p 8080:8080 localai/localai:latest-cpu 

这里使用的镜像是仅使用CPU来运行的镜像,如果大家有Nvidia显卡的好GPU,也可以使用下方命令拉取支持N卡的镜像来运行容器:

sudo docker run -ti --name local-ai -p 8080:8080 --gpus all localai/localai:latest-gpu-nvidia-cuda-12 

更多项目配置与使用详情大家也可以访问作者的github主页进行查看:https://github.com/mudler/LocalAI

2. 简单使用演示

容器启动后,我们在Ubuntu中使用浏览器访问 http://localhost:8080 即可打开LocalAI的Web UI页面:

image-20250107150311522

能看到页面中央提示我们现在还没有添加大模型,我们可以点击Gallery,在跳转页面选择一个大模型:

image-20250107151137003

可以看到在这个界面中有600多个大模型,并且可以根据用途标签(文字转语音、图片生成、文章生成等等)进行筛选或者在下方输入框搜索指定的模型:

1736234546248

我这里以添加llama-3.2-1b模型来进行演示:点击install按钮安装等待完成即可

image-20250107151337786
image-20250107151539442
image-20250107151705300

安装完成后,点击页面上方导航条中的HOME回到主页即可发现刚刚添加的llama-3.2模型:

image-20250107153151174

想要使用这个AI大模型,点击上方导航中的chat即可与它聊天了:

image-20250107153311605

点击右侧的模型选择,下拉框中会显示你已经安装的大模型:

image-20250107153543150

目前我只安装了这一个,如果想继续安装其他大模型,可以点击页面上方导航栏中的Models进行选择:(跳转的就是首次挑选模型安装的那个页面)

image-20250107153714760

3. 安装cpolar内网穿透

不过我们目前只能在本地局域网内访问刚刚部署的LocalAI来使用AI大模型聊天,如果想不在同一局域网内时,也能在外部网络环境使用手机、平板、电脑等设备远程访问与使用它,应该怎么办呢?我们可以使用cpolar内网穿透工具来实现远程访问的需求。无需公网IP,也不用设置路由器那么麻烦。

下面是安装cpolar步骤:

Cpolar官网地址:https://www.cpolar.com

使用一键脚本安装命令:

sudocurl https://get.cpolar.sh |sh
img

安装完成后,执行下方命令查看cpolar服务状态:(如图所示即为正常启动)

sudo systemctl status cpolar 
img

Cpolar安装和成功启动服务后,在浏览器上输入ubuntu主机IP加9200端口即:【http://localhost:9200】访问Cpolar管理界面,使用Cpolar官网注册的账号登录,登录后即可看到cpolar web 配置界面,接下来在web 界面配置即可:

image-20240801133735424

4. 配置公网地址

登录cpolar web UI管理界面后,点击左侧仪表盘的隧道管理——创建隧道:

  • 隧道名称:可自定义,本例使用了: localai ,注意不要与已有的隧道名称重复
  • 协议:http
  • 本地地址:8080
  • 域名类型:随机域名
  • 地区:选择China Top

点击创建:

image-20250107155748353

创建成功后,打开左侧在线隧道列表,可以看到刚刚通过创建隧道生成了两个公网地址,接下来就可以在其他电脑或者移动端设备(异地)上,使用任意一个地址在浏览器中访问即可。

image-20250107160010472

如图所示,现在就已经成功实现使用公网地址异地远程访问本地部署的LocalAI来用AI大模型聊天啦!

image-20250107160149458

小结

为了方便演示,我们在上边的操作过程中使用cpolar生成的HTTP公网地址隧道,其公网地址是随机生成的。这种随机地址的优势在于建立速度快,可以立即使用。然而,它的缺点是网址是随机生成,这个地址在24小时内会发生随机变化,更适合于临时使用。

如果有长期使用LocalAI,或者异地访问与使用其他本地部署的服务的需求,但又不想每天重新配置公网地址,还想让公网地址好看又好记并体验更多功能与更快的带宽,那我推荐大家选择使用固定的二级子域名方式来配置公网地址。

5. 配置固定公网地址

由于以上使用cpolar所创建的隧道使用的是随机公网地址,24小时内会随机变化,不利于长期远程访问。因此我们可以为其配置二级子域名,该地址为固定地址,不会随机变化。

注意需要将cpolar套餐升级至基础套餐或以上,且每个套餐对应的带宽不一样。【cpolar.cn已备案】

点击左侧的预留,选择保留二级子域名,地区选择china top,然后设置一个二级子域名名称,我这里演示使用的是mylocal,大家可以自定义。填写备注信息,点击保留。

image-20250107160432921

保留成功后复制保留的二级子域名地址:

image-20250107160503136

登录cpolar web UI管理界面,点击左侧仪表盘的隧道管理——隧道列表,找到所要配置的隧道localai,点击右侧的编辑

image-20250107160552136

修改隧道信息,将保留成功的二级子域名配置到隧道中

  • 域名类型:选择二级子域名
  • Sub Domain:填写保留成功的二级子域名
  • 地区: China Top

点击更新

image-20250107160647570

更新完成后,打开在线隧道列表,此时可以看到随机的公网地址已经发生变化,地址名称也变成了保留和固定的二级子域名名称。

image-20250107160726385

最后,我们使用固定的公网地址在任意设备的浏览器中访问,可以看到成功访问本地部署的LocalAI Web UI页面,这样一个永久不会变化的二级子域名公网网址即设置好了。

image-20250107160928361

以上就是如何在本地Ubuntu系统使用Docker快速部署开源AI服务LocalAI,并安装cpolar内网穿透工具配置固定不变的二级子域名公网地址,实现随时随地远程在线与AI大模型交互的全部流程,感谢您的观看,有任何问题欢迎留言交流。

从被云端AI绑架到掌控数据主权,LocalAI+CPolar的组合不仅让我的敏感数据处理效率提升40%,更重新定义了"AI民主化"的边界。原来真正的AI自由,不是依赖更强的算力,而是拥有随时离线工作的底气和保护隐私的能力。

本篇文章知识点来源[cpolar官网][https://www.cpolar.com]

Read more

AI 办公成职场标配,别再用错拖后腿!7 套书教你精准用 AI 提效

AI 办公成职场标配,别再用错拖后腿!7 套书教你精准用 AI 提效

2026三掌柜赠书活动第十八期 AI 办公成职场标配,别再用错拖后腿!7 套书教你精准用 AI 提效 目录 Part.0 前言 Part.1 开会汇报没重点?AI当“嘴替” Part.2 不想加班,还不知道搭个智能体帮你干? Part.3 主业涨薪难,想抓AI风口做副业? Part.4 DeepSeek总get不到你的点? Part.5 Office内置AI不会用? Part.6 不想被“职场体力活”耗空? Part.7 对抗工具墒增,实现职场进阶! Part.8 彩蛋:赠书! Part.9 结束语 Part.0 前言

AI的提示词专栏:Claude-2 Prompt 编写细节

AI的提示词专栏:Claude-2 Prompt 编写细节

AI的提示词专栏:Claude-2 Prompt 编写细节 本文围绕 Claude-2 模型的 Prompt 编写展开,先介绍其超长上下文窗口、精准指令理解及严格内容安全控制的特性,明确 Prompt 适配逻辑。接着阐述 “系统规则 - 任务指令 - 背景信息 - 输出要求” 的四层核心结构,详解各模块编写要点并附示例。还讲解了分段标注 + 重点引导、上下文锚定 + 历史回顾、明确豁免规则 + 风险边界三类专属 Prompt 技巧及应用场景,指出常见误区与避坑方法,提供法律合同审核场景的完整实战案例。最后给出 “效果评估 - 问题定位 - Prompt 迭代” 的优化流程,助力提升 Claude-2 Prompt 编写质量与响应效果。 人工智能专栏介绍     人工智能学习合集专栏是 AI 学习者的实用工具。

多模态 AI 应用:图文音视频一体化开发实战教程

多模态 AI 应用:图文音视频一体化开发实战教程

什么是多模态AI 多模态AI是指能够同时处理文本、图像、音频、视频等多种不同类型数据的人工智能系统,它打破了单模态AI的信息壁垒,能更贴近人类理解世界的方式。比如我们日常使用的AI聊天机器人识图功能、视频自动字幕生成工具,都是多模态AI的典型应用。 开发前的核心准备 模型选型建议 模型类型推荐模型适用场景开源轻量模型Qwen-VL-Chat、MiniGPT-4本地部署、快速验证云端API模型GPT-4V、Gemini Pro生产级应用、复杂任务处理专业领域模型CLIP、Whisper图像检索、音频转写等细分场景 环境依赖安装 我们将基于Python生态实现实战项目,需要安装以下核心库: # 基础依赖 pip install torch torchvision transformers pillow # 音频处理依赖 pip install librosa soundfile # 视频处理依赖 pip install opencv-python moviepy # API调用依赖(可选,用于调用云端多模态模型) pip install openai anthropic

OpenClaw 刚配好就完了?5 步调教,让你的 AI 助手真正“能干活”

OpenClaw 刚配好就完了?5 步调教,让你的 AI 助手真正“能干活”

很多人装完 OpenClaw,接上 Discord 或 Telegram,发现能聊天了就觉得“搞定了”。 但我自己踩坑一圈后,越来越确定一件事:默认状态的 OpenClaw,可能只发挥了 20% 的能力。剩下的 80%,藏在一些你没太注意的配置文件里——而且改起来并不难。 下面我按“收益从高到低”的顺序,把我自己最有效的 5 步调教方法整理出来。新手照着做,大概率能立刻感受到差别。 默认状态 vs 调教后:差别到底在哪? 先给你一个直观对比,方便建立预期: 项目默认状态调教后回复风格客服味:“我很乐意帮助您!”更像懂你的搭档记忆每次对话都像陌生人记得你们之前聊过什么能力只能聊天能下载视频、查股票、做 PPT、巡检服务器…主动性你不说它不动会定期检查状态,主动提醒成本/效率所有任务都用同一个模型复杂任务用强模型,简单活用便宜模型 如果你只做一件事:先把第 1 步和第 2 步做了,