AI协作天花板!CherryStudio让多模型协同像搭积木

AI协作天花板!CherryStudio让多模型协同像搭积木

文章目录

前言

当单个AI还在"单打独斗"时,CherryStudio已经实现了多模型协作的突破!这款开源客户端支持同时接入OpenAI、Gemini、本地Ollama等10+模型,就像一个AI调度中心。最惊艳的是"智能体协作"功能——让GPT分析数据,让Claude写报告,让SD生图,全程自动化流转。无论是科研写作、营销策划还是代码开发,都能找到合适的AI组合方案。

作为每天和AI打交道的产品经理,CherryStudio的"工作流模板"帮我节省了大量时间。写需求文档时,先用"大纲生成器"搭框架,再让"文案润色"智能体优化表达,最后用"表格转换"工具整理数据,一套流程下来比纯手动效率提升3倍。不过新手可能会被众多功能搞得眼花缭乱,建议从"快速提问"模式开始上手,逐步探索高级功能。

但本地化部署的局限也很明显:只能在安装了客户端的设备上使用。我在公司用台式机配置好的AI工作流,回家想用笔记本继续,必须重新设置一遍;团队协作时,每个人都要单独部署模型,版本同步是个大难题。这种"设备绑定"的模式,让本该提升效率的工具反而成了协作障碍。

还好cpolar内网穿透工具解决了这个痛点!它就像给CherryStudio开了个"远程控制台",通过加密隧道让团队共享同一套AI服务🚀。现在我在家用平板就能访问公司电脑上的模型,同事也能实时调用我配置好的工作流。最方便的是支持权限管理,可以给不同成员设置不同的模型访问权限。这种组合让CherryStudio从"个人工具"升级成了"团队平台",协作效率直接拉满!

本文主要介绍如何在Windows系统电脑本地安装开源AI客户端Cherry Studio,并结合cpolar内网穿透工具轻松实现随时随地远程调用本地部署的各种AI大语言模型,无需公网IP,也不用准备云服务器那么麻烦。

话不多说,下面就来详细介绍一下如何安装与使用!

img

【视频教程】

1. 本地安装

本例中使用的是Windows11专业版系统,本地已经提前准备好了DeepSeek-R1与千问QWQ-32B大模型。

如果不知道如何本地部署这两款AI大模型,可以查看下面的文章:《千问QwQ32B本地部署与远程访问》《Windows本地部署deepseek-r1大模型》

首先,我们访问Cherry Studio的github主页下载客户端:https://github.com/CherryHQ/cherry-studio/releases

找到Windows版本客户端安装程序下载即可:

image-20250321105737238

选择好安装位置后,即可快速安装:

image-20250321105817828
image-20250321105901495

2. 配置模型服务

打开客户端后,可以看到界面非常简洁明了。

image-20250321110051047

2.1 配置在线模型服务

点击左下角的设置,即可进行模型服务配置:

image-20250321110140817

这里我们拿硅基流动的模型服务进行举例,如果你本地没有部署deepseek等大模型,只要添加好API秘钥就能在Cherry Studio客户端中在线使用deepseek大模型!如果你没有它的API秘钥,点击下方获取秘钥,在跳转的页面注册一个账号就能免费获得你的API keys:

image-20250321114828835

将这个Key复制到Cherry Studio客户端中刚才的API秘钥框中,确定右上角的开关打开状态即可:

image-20250321114914351

现在点击底部的管理按钮,就能看到已经可以使用这里的几十种大模型了:

image-20250321132900103
image-20250321132916418

比如这里点击加号添加deepseek-r1-70b模型:

image-20250321133103897

然后点击客户端左上角的聊天图标,在对话框顶部的模型选择中,就可以看到刚才添加的70B模型了:

image-20250321133242065

现在就能在对话框中与deepseek在线聊天了:

image-20250321133400256

不过这种使用API接口在线调用大模型的方式通常都是根据消耗tokens计费,偶尔简单使用还可以,长期或大量使用的话可能需要准备好预算。

2.2 配置本地模型服务

如果你已经在本地服务器中部署了AI大模型,那么也可以在Cherry Studio客户端中配置本地模型服务,免费与大模型聊天,想用就用。

同样,我们点击Cherry Studio左下角的设置,在模型服务中选择Ollama,打开右上角的开关:

image-20250321134114781

点击管理:

image-20250321134139960

在这里可以看到我们之前在本地已经下载好的千问qwq-32b模型和deepseek-r1:1.5b模型,点击加号添加即可:

image-20250321134256709

然后回到客户端聊天界面,在对话框顶部的模型选择中,就可以看到刚才添加的本地模型了:

image-20250321134410285

现在就能在对话框中和本地的qwq-32b模型聊天了,无需担心额外费用:

image-20250321134615519

2.3 其他功能简单演示

除了使用Api key在线使用AI大模型和调用本地AI大模型聊天,Cherry Studio还有很多非常好用的功能。

2.3.1 创建智能体

我们可以点击聊天助手下的智能体功能,根据不同的使用场景选择自己需要的智能体模版进行创建:

image-20250321135243959

创建好之后,点击聊天助手,可以看到刚才创建的美文排版智能体,在这个模版界面中,我们可以选择在线大模型或者本地大模型后,在聊天框中提出问题:

image-20250321135606288
2.3.2 AI文生图

在创建智能体下边,我们还可以使用它来调用Flux.1或者SD模型来进行文生图:(需要配置提供商API秘钥)

image-20250321140008055

在模型选择中可以看到支持多个模型:

image-20250321140045138

除此之外,Cherry Studio还支持使用AI翻译,多种AI小程序等实用功能:

image-20250321140156315
image-20250321140225178

点击即可快速使用:

image-20250321140707850

3. 安装内网穿透工具

现在我们已经能在本地使用Cherry Studio超多AI功能带来的便利,但是如果想实现不在同一网络环境下,也能随时随地在线使用Cherry Studio客户端远程调用本地部署的AI大模型聊天与办公,那就需要借助cpolar内网穿透工具来实现公网访问了!

在上边我们配置本地模型服务时,使用的是在本地安装好的ollama接入大模型,想要远程调用大模型,需要进行对ollama进行一下环境变量设置。

打开cmd终端,执行下面两个命令:

setx OLLAMA_HOST "0.0.0.0"
setx OLLAMA_ORIGINS "*"

然后再为它配置一个公网地址即可解决这个问题:

image-20250321134114781

接下来介绍一下如何安装cpolar内网穿透,过程同样非常简单:

首先进入cpolar官网:cpolar官网地址:https://www.cpolar.com

点击免费使用注册一个账号,并下载最新版本的cpolar:

image-20250307152003085

登录成功后,点击下载cpolar到本地并安装(一路默认安装即可)本教程选择下载Windows版本。

image-20240319175308664

4. 配置公网地址

cpolar安装成功后,在浏览器上访问http://localhost:9200,使用cpolar账号登录,登录后即可看到配置界面,结下来在WebUI管理界面配置即可。

img

接下来配置一下 本地ollama服务 的公网地址:

登录后,点击左侧仪表盘的隧道管理——创建隧道,

  • 隧道名称:ollama(可自定义命名,注意不要与已有的隧道名称重复)
  • 协议:选择 http
  • 本地地址:11434 (本地访问的地址)
  • 域名类型:选择随机域名
  • 地区:选择China Top
image-20250321142849112

隧道创建成功后,点击左侧的状态——在线隧道列表,查看所生成的公网访问地址,有两种访问方式,一种是http 和https:

image-20250321143433388

使用上面的任意一个公网地址,粘贴到Cherry Studio客户端的ollama模型服务的API地址里:

1742539038373

点击管理,即使不在同一网络环境下,也能看到在本地部署的qwq32b和deepseek模型!

image-20250321143918998

点击添加,即可在公网环境使用其他电脑随时随地远程调用本地内网大模型:

image-20250321144021612
image-20250321144037391

小结

为了方便演示,我们在上边的操作过程中使用cpolar生成的HTTP公网地址隧道,其公网地址是随机生成的。这种随机地址的优势在于建立速度快,可以立即使用。然而,它的缺点是网址是随机生成,这个地址在24小时内会发生随机变化,更适合于临时使用。

如果有长期远程使用Cherry Studio远程调用本地AI大模型,或者异地访问与使用其他本地部署的服务的需求,但又不想每天重新配置公网地址,还想让公网地址好看又好记并体验更多功能与更快的带宽,那我推荐大家选择使用固定的二级子域名方式来为本地服务配置一个公网地址。

5. 配置固定公网地址

接下来演示如何为本地ollama配置固定的HTTP公网地址,该地址不会变化,方便分享给别人长期查看你部署的项目,而无需每天重复修改服务器地址。

配置固定http端口地址需要将cpolar升级到专业版套餐或以上。

登录cpolar官网,点击左侧的预留,选择保留二级子域名,设置一个二级子域名名称,点击保留:

image-20250321144407766

保留成功后复制保留成功的二级子域名的名称:csollama,大家也可以设置自己喜欢的名称。

image-20250321144748454

返回Cpolar web UI管理界面,点击左侧仪表盘的隧道管理——隧道列表,找到所要配置的隧道:ollama,点击右侧的编辑:

image-20250321144825087

修改隧道信息,将保留成功的二级子域名配置到隧道中

  • 域名类型:选择二级子域名
  • Sub Domain:填写保留成功的二级子域名:csollama

点击更新(注意,点击一次更新即可,不需要重复提交)

image-20250321145203916

更新完成后,打开在线隧道列表,此时可以看到公网地址已经发生变化,地址名称也变成了固定的二级子域名名称的域名:

image-20250321145249020

最后,我们使用上面的任意一个固定公网地址,粘贴到Cherry Studio客户端的ollama模型服务的API地址里:

image-20250321145426347

返回聊天助手界面,同样能看到在本地部署的qwq32b和deepseek模型,并正常聊天。

image-20250321145819864

远程调用本地qwq32b模型使用智能体排版文章也没问题!

image-20250321150344413
image-20250321151646214

总结

通过以上步骤,我们实现了在Windows系统电脑本地安装Cherry Studio客户端并配置本地AI大模型服务,并使用cpolar内网穿透工具轻松实现在公网环境中也能使用Cherry Studio远程访问本地部署的大模型,并为本地服务配置固定不变的二级子域名公网地址的全部流程。

经过简单测试,Cherry Studio这款AI工具确实效果很惊艳,支持的功能也非常多,而结合内网穿透使用则降低了使用门槛,无需二次部署,提高效率。另外,Cherry Studio针对个人用户免费,企业用户请联系官方合作。非常期待Cherry Studio后续的发展,也感谢您的观看,有任何问题欢迎留言交流。

AI的未来是协作,CherryStudio+cpolar的组合正是如此:打破模型边界,突破设备限制。如果你也在寻找高效的AI协作方案,这个开源工具值得一试——毕竟,好的工具应该让复杂的事情变简单

本篇文章知识点来源[cpolar官网][https://www.cpolar.com]

Read more

2026年3月27日人工智能早间新闻

各位读者,早上好。今天是2026年3月27日,星期五。欢迎收看人工智能早间新闻。今日,全球科技界的目光聚焦北京和海南——中关村论坛“人工智能主题日”正式拉开帷幕,全球首个通用智能人“通通3.0”即将亮相;博鳌亚洲论坛上,AI赋能产业升级的讨论如火如荼。从“机器人餐吧”到脑机接口临床突破,人工智能正以前所未有的速度从实验室走向真实生活。 一、国内焦点:中关村论坛“人工智能主题日”今日启幕,多场重磅活动密集上演 2026中关村论坛年会进入第三天,备受瞩目的“人工智能主题日”系列活动今日集中举行。本届主题日以“交融·智享AI新范式下的全球创新与产业融合”为核心,整体围绕“1+6”活动框架展开。 1. 核心论坛聚焦AI开源前沿:今日上午,AI开源前沿论坛在中关村国际创新中心举行。论坛以“前沿科技、开源开放”为主线,将发布众智FlagOS 2.0开源成果与全球开放计算报告,举行国际开源合作签约,

AI之Tool:Google Stitch的简介、安装和使用方法、案例应用之详细攻略

AI之Tool:Google Stitch的简介、安装和使用方法、案例应用之详细攻略

AI之Tool:Google Stitch的简介、安装和使用方法、案例应用之详细攻略 目录 Google Stitch的简介 1、特点 Google Stitch的安装和使用方法 1、安装 2、使用方法 Google Stitch的案例应用 在电商和内容型页面上 在迭代层面,Stitch 很适合做“局部修正”案例 从草图到原型 Google Stitch的简介 2026年3月18日,Stitch 是 Google Labs 推出的实验性 AI 设计工具,官方把它描述为一个 AI-native software design canvas:你可以用自然语言、图片、文本甚至代码来生成高保真 UI,并在同一个画布里继续迭代、协作和完善设计。它的目标是把“想法”更快地变成“可预览的界面”

AI 自动化测试:接口测试全流程自动化的实现方法

AI 自动化测试:接口测试全流程自动化的实现方法

在 AI 技术飞速渗透各行各业的当下,我们早已告别 “谈 AI 色变” 的观望阶段,迈入 “用 AI 提效” 的实战时代 💡。无论是代码编写时的智能辅助 💻、数据处理中的自动化流程 📊,还是行业场景里的精准解决方案 ,AI 正以润物细无声的方式,重构着我们的工作逻辑与行业生态 🌱。曾几何时,我们需要花费数小时查阅文档 📚、反复调试代码 ⚙️,或是在海量数据中手动筛选关键信息 ,而如今,一个智能工具 🧰、一次模型调用 ⚡,就能将这些繁琐工作的效率提升数倍 📈。正是在这样的变革中,AI 相关技术与工具逐渐走进我们的工作场景,成为破解效率瓶颈、推动创新的关键力量 。今天,我想结合自身实战经验,带你深入探索 AI 技术如何打破传统工作壁垒 🧱,让 AI 真正从 “概念” 变为 “实用工具” ,为你的工作与行业发展注入新动能 ✨。 文章目录 * AI 自动化测试:接口测试全流程自动化的实现方法 🤖 * 为什么传统自动化测试“卡壳”

SpringAI 大模型应用开发篇-SpringAI 项目的新手入门知识

SpringAI 大模型应用开发篇-SpringAI 项目的新手入门知识

🔥博客主页: 【小扳_-ZEEKLOG博客】 ❤感谢大家点赞👍收藏⭐评论✍ 文章目录         1.0 SpringAI 概述         1.1 大模型的使用         2.0 SpringAI 新手入门         2.1 配置 pom.xml 文件         2.2 配置 application.yaml 文件         2.3 配置 ChatClient         2.4 同步调用         2.5 流式调用         2.6 System 设定         2.7 日志功能         2.8 会话记忆功能