Cherry Studio 本地 AI 模型远程访问与配置实战
Cherry Studio 是一款功能强大的多功能 AI 客户端,支持连接 OpenAI、Gemini 等在线模型,也能对接本地 Ollama 部署的大模型。它自带文档处理、智能体协作等实用功能,无论是程序员调试代码还是日常办公都能派上用场。
它的模块化设计允许自定义对话逻辑,新手老手都能快速上手。不过要注意,在线模型通常按 token 计费,大量使用前建议评估成本。
1. 本地安装
以 Windows 系统为例,首先访问 Cherry Studio 的 GitHub 主页下载客户端:
https://github.com/CherryHQ/cherry-studio/releases
找到 Windows 版本安装程序并运行,按照向导选择安装位置即可。安装完成后启动客户端,界面简洁明了。
2. 配置模型服务
2.1 配置在线模型服务
点击左下角设置进入模型服务配置。这里以硅基流动为例,如果本地没有部署大模型,添加 API 密钥即可在线使用。
在设置中找到对应服务商,将获取到的 API Key 填入框中,确保开关处于开启状态。点击管理按钮,即可看到已加载的几十种大模型列表。点击加号添加具体模型(如 DeepSeek-R1-70B),随后在聊天界面顶部的模型选择器中即可调用。
2.2 配置本地模型服务
若已在本地服务器部署了 AI 大模型,可直接在 Cherry Studio 中配置本地服务,免费使用。
同样在设置中选择 Ollama,打开开关。点击管理后,可以看到本地已下载的模型(如 QwQ-32B、DeepSeek-R1)。点击加号添加后,回到聊天界面顶部选择器,即可切换至本地模型进行对话,无需担心额外费用。
2.3 其他功能演示
除了基础对话,Cherry Studio 还支持创建智能体和文生图功能。
- 创建智能体:在聊天助手下选择智能体功能,根据场景选择模板创建。创建后可选择在线或本地模型,在特定模版界面提问。
- AI 文生图:支持调用 Flux.1 或 SD 模型生成图片(需配置提供商 API 秘钥)。
- 辅助工具:内置 AI 翻译、多种小程序等实用功能,点击即可快速使用。
3. 实现远程访问
默认情况下,本地模型服务仅限局域网访问。若想在公司或其他网络环境下远程调用家里的模型,需要借助内网穿透工具。
3.1 环境变量配置
为了允许外部请求访问本地 Ollama 服务,需要在终端执行以下命令设置环境变量:
setx OLLAMA_HOST "0.0.0.0"
setx OLLAMA_ORIGINS "*"
重启 Ollama 服务使配置生效。
3.2 配置隧道
安装内网穿透工具后,登录 WebUI 管理界面。在隧道管理中创建新隧道:
- 隧道名称:ollama(自定义,避免重复)
- 协议:http
- 本地地址:11434(Ollama 默认端口)
- 域名类型:随机域名(临时使用)或二级子域名(长期固定)
- 地区:China Top
隧道创建成功后,查看生成的公网访问地址(HTTP 或 HTTPS)。将该地址复制粘贴到 Cherry Studio 客户端的 Ollama 模型服务 API 地址栏中。
此时即使不在同一网络环境下,也能在远程设备上看到并调用本地部署的模型。
4. 配置固定公网地址
对于长期远程使用的场景,建议使用固定的二级子域名,方便记忆且无需每天重新配置。
注意:部分工具可能需要升级套餐才能保留固定域名。


