前言
当处理敏感数据时,将模型部署在本地是保障隐私的最佳方案。LocalAI 是一款开源工具,支持 Llama、Phi 等大模型直接在本地运行,全程不上传数据,且完美兼容 OpenAI API。它特别适合需要离线工作的科研人员或对数据主权有要求的开发者。其 CPU 推理能力甚至能在普通笔记本上流畅运行 7B 模型。
不过,本地部署通常受限于局域网。为了打破这一限制,我们可以结合 CPolar 内网穿透工具,实现安全的远程访问。下面将详细介绍如何在 Ubuntu 系统上通过 Docker 部署 LocalAI,并配置固定公网地址以实现随时随地的调用。
Docker 部署
本例基于 Ubuntu 22.04 环境演示。确保已安装 Docker,若未安装可参考官方文档进行配置。
启动容器后,执行以下命令即可初始化 LocalAI。这里使用的是仅依赖 CPU 的镜像,适合大多数场景:
sudo docker run -ti --name local-ai -p 8080:8080 localai/localai:latest-cpu
如果服务器配备 NVIDIA 显卡,可以使用支持 GPU 加速的镜像以获得更好的性能:
sudo docker run -ti --name local-ai -p 8080:8080 --gpus all localai/localai:latest-gpu-nvidia-cuda-12
更多项目配置与使用详情,建议查阅 GitHub 主页获取最新信息。
简单使用演示
容器启动成功后,在浏览器访问 http://localhost:8080 即可打开 LocalAI 的 Web UI 页面。

初次进入页面会提示尚未添加大模型。点击 Gallery 按钮,可以在跳转页面中选择所需的模型。该界面提供了 600 多个大模型,支持按用途标签(如文字转语音、图片生成等)筛选,也可通过搜索框查找特定模型。

以添加 llama-3.2-1b 模型为例,点击 Install 按钮等待安装完成即可。



















