Cherry Studio+内网穿透:本地AI模型秒变远程访问的保姆级教程
文章目录
前言
各位朋友请注意!今天为您揭晓一套突破性的AI应用方案——Cherry Studio联合cpolar内网穿透技术的创新组合。通过在Windows系统中部署这款开源AI开发平台,用户可轻松突破网络边界限制,实现对本地语言模型的远程操控,彻底摆脱对公网IP和云服务器的依赖困境。
这款全平台兼容的AI开发套件,完美适配Windows、MacOS及Linux三大操作系统。其核心优势在于同时支持OpenAI、Gemini等主流AI框架,以及Ollama等本地模型部署方案。平台内置的300+种预置AI助手模块,为开发者提供强大的定制化能力。从多模型协作对话、智能系统搭建、图像创作到文档处理等复杂应用场景,均可实现模块化集成。特别值得关注的是其模块化架构设计,让用户无需经历繁琐的环境配置流程。现在就让我们深入探讨这套智能开发工具的创新特性!

1. 本地安装
本例中使用的是Windows11专业版系统,本地已经提前准备好了DeepSeek-R1与千问QWQ-32B大模型。
如果不知道如何本地部署这两款AI大模型,可以查看下面的文章:《千问QwQ32B本地部署与远程访问》 、《Windows本地部署deepseek-r1大模型》
首先,我们访问Cherry Studio的github主页下载客户端:https://github.com/CherryHQ/cherry-studio/releases
找到Windows版本客户端安装程序下载即可:

选择好安装位置后,即可快速安装:


2. 配置模型服务
打开客户端后,可以看到界面非常简洁明了。

2.1 配置在线模型服务
点击左下角的设置,即可进行模型服务配置:

这里我们拿硅基流动的模型服务进行举例,如果你本地没有部署deepseek等大模型,只要添加好API秘钥就能在Cherry Studio客户端中在线使用deepseek大模型!如果你没有它的API秘钥,点击下方获取秘钥,在跳转的页面注册一个账号就能免费获得你的API keys:

将这个Key复制到Cherry Studio客户端中刚才的API秘钥框中,确定右上角的开关打开状态即可: