AI协作天花板!CherryStudio让多模型协同像搭积木

AI协作天花板!CherryStudio让多模型协同像搭积木

文章目录

前言

当单个AI还在"单打独斗"时,CherryStudio已经实现了多模型协作的突破!这款开源客户端支持同时接入OpenAI、Gemini、本地Ollama等10+模型,就像一个AI调度中心。最惊艳的是"智能体协作"功能——让GPT分析数据,让Claude写报告,让SD生图,全程自动化流转。无论是科研写作、营销策划还是代码开发,都能找到合适的AI组合方案。

作为每天和AI打交道的产品经理,CherryStudio的"工作流模板"帮我节省了大量时间。写需求文档时,先用"大纲生成器"搭框架,再让"文案润色"智能体优化表达,最后用"表格转换"工具整理数据,一套流程下来比纯手动效率提升3倍。不过新手可能会被众多功能搞得眼花缭乱,建议从"快速提问"模式开始上手,逐步探索高级功能。

但本地化部署的局限也很明显:只能在安装了客户端的设备上使用。我在公司用台式机配置好的AI工作流,回家想用笔记本继续,必须重新设置一遍;团队协作时,每个人都要单独部署模型,版本同步是个大难题。这种"设备绑定"的模式,让本该提升效率的工具反而成了协作障碍。

还好cpolar内网穿透工具解决了这个痛点!它就像给CherryStudio开了个"远程控制台",通过加密隧道让团队共享同一套AI服务🚀。现在我在家用平板就能访问公司电脑上的模型,同事也能实时调用我配置好的工作流。最方便的是支持权限管理,可以给不同成员设置不同的模型访问权限。这种组合让CherryStudio从"个人工具"升级成了"团队平台",协作效率直接拉满!

本文主要介绍如何在Windows系统电脑本地安装开源AI客户端Cherry Studio,并结合cpolar内网穿透工具轻松实现随时随地远程调用本地部署的各种AI大语言模型,无需公网IP,也不用准备云服务器那么麻烦。

话不多说,下面就来详细介绍一下如何安装与使用!

img

【视频教程】

1. 本地安装

本例中使用的是Windows11专业版系统,本地已经提前准备好了DeepSeek-R1与千问QWQ-32B大模型。

如果不知道如何本地部署这两款AI大模型,可以查看下面的文章:《千问QwQ32B本地部署与远程访问》《Windows本地部署deepseek-r1大模型》

首先,我们访问Cherry Studio的github主页下载客户端:https://github.com/CherryHQ/cherry-studio/releases

找到Windows版本客户端安装程序下载即可:

image-20250321105737238

选择好安装位置后,即可快速安装:

image-20250321105817828
image-20250321105901495

2. 配置模型服务

打开客户端后,可以看到界面非常简洁明了。

image-20250321110051047

2.1 配置在线模型服务

点击左下角的设置,即可进行模型服务配置:

image-20250321110140817

这里我们拿硅基流动的模型服务进行举例,如果你本地没有部署deepseek等大模型,只要添加好API秘钥就能在Cherry Studio客户端中在线使用deepseek大模型!如果你没有它的API秘钥,点击下方获取秘钥,在跳转的页面注册一个账号就能免费获得你的API keys:

image-20250321114828835

将这个Key复制到Cherry Studio客户端中刚才的API秘钥框中,确定右上角的开关打开状态即可:

image-20250321114914351

现在点击底部的管理按钮,就能看到已经可以使用这里的几十种大模型了:

image-20250321132900103
image-20250321132916418

比如这里点击加号添加deepseek-r1-70b模型:

image-20250321133103897

然后点击客户端左上角的聊天图标,在对话框顶部的模型选择中,就可以看到刚才添加的70B模型了:

image-20250321133242065

现在就能在对话框中与deepseek在线聊天了:

image-20250321133400256

不过这种使用API接口在线调用大模型的方式通常都是根据消耗tokens计费,偶尔简单使用还可以,长期或大量使用的话可能需要准备好预算。

2.2 配置本地模型服务

如果你已经在本地服务器中部署了AI大模型,那么也可以在Cherry Studio客户端中配置本地模型服务,免费与大模型聊天,想用就用。

同样,我们点击Cherry Studio左下角的设置,在模型服务中选择Ollama,打开右上角的开关:

image-20250321134114781

点击管理:

image-20250321134139960

在这里可以看到我们之前在本地已经下载好的千问qwq-32b模型和deepseek-r1:1.5b模型,点击加号添加即可:

image-20250321134256709

然后回到客户端聊天界面,在对话框顶部的模型选择中,就可以看到刚才添加的本地模型了:

image-20250321134410285

现在就能在对话框中和本地的qwq-32b模型聊天了,无需担心额外费用:

image-20250321134615519

2.3 其他功能简单演示

除了使用Api key在线使用AI大模型和调用本地AI大模型聊天,Cherry Studio还有很多非常好用的功能。

2.3.1 创建智能体

我们可以点击聊天助手下的智能体功能,根据不同的使用场景选择自己需要的智能体模版进行创建:

image-20250321135243959

创建好之后,点击聊天助手,可以看到刚才创建的美文排版智能体,在这个模版界面中,我们可以选择在线大模型或者本地大模型后,在聊天框中提出问题:

image-20250321135606288
2.3.2 AI文生图

在创建智能体下边,我们还可以使用它来调用Flux.1或者SD模型来进行文生图:(需要配置提供商API秘钥)

image-20250321140008055

在模型选择中可以看到支持多个模型:

image-20250321140045138

除此之外,Cherry Studio还支持使用AI翻译,多种AI小程序等实用功能:

image-20250321140156315
image-20250321140225178

点击即可快速使用:

image-20250321140707850

3. 安装内网穿透工具

现在我们已经能在本地使用Cherry Studio超多AI功能带来的便利,但是如果想实现不在同一网络环境下,也能随时随地在线使用Cherry Studio客户端远程调用本地部署的AI大模型聊天与办公,那就需要借助cpolar内网穿透工具来实现公网访问了!

在上边我们配置本地模型服务时,使用的是在本地安装好的ollama接入大模型,想要远程调用大模型,需要进行对ollama进行一下环境变量设置。

打开cmd终端,执行下面两个命令:

setx OLLAMA_HOST "0.0.0.0"
setx OLLAMA_ORIGINS "*"

然后再为它配置一个公网地址即可解决这个问题:

image-20250321134114781

接下来介绍一下如何安装cpolar内网穿透,过程同样非常简单:

首先进入cpolar官网:cpolar官网地址:https://www.cpolar.com

点击免费使用注册一个账号,并下载最新版本的cpolar:

image-20250307152003085

登录成功后,点击下载cpolar到本地并安装(一路默认安装即可)本教程选择下载Windows版本。

image-20240319175308664

4. 配置公网地址

cpolar安装成功后,在浏览器上访问http://localhost:9200,使用cpolar账号登录,登录后即可看到配置界面,结下来在WebUI管理界面配置即可。

img

接下来配置一下 本地ollama服务 的公网地址:

登录后,点击左侧仪表盘的隧道管理——创建隧道,

  • 隧道名称:ollama(可自定义命名,注意不要与已有的隧道名称重复)
  • 协议:选择 http
  • 本地地址:11434 (本地访问的地址)
  • 域名类型:选择随机域名
  • 地区:选择China Top
image-20250321142849112

隧道创建成功后,点击左侧的状态——在线隧道列表,查看所生成的公网访问地址,有两种访问方式,一种是http 和https:

image-20250321143433388

使用上面的任意一个公网地址,粘贴到Cherry Studio客户端的ollama模型服务的API地址里:

1742539038373

点击管理,即使不在同一网络环境下,也能看到在本地部署的qwq32b和deepseek模型!

image-20250321143918998

点击添加,即可在公网环境使用其他电脑随时随地远程调用本地内网大模型:

image-20250321144021612
image-20250321144037391

小结

为了方便演示,我们在上边的操作过程中使用cpolar生成的HTTP公网地址隧道,其公网地址是随机生成的。这种随机地址的优势在于建立速度快,可以立即使用。然而,它的缺点是网址是随机生成,这个地址在24小时内会发生随机变化,更适合于临时使用。

如果有长期远程使用Cherry Studio远程调用本地AI大模型,或者异地访问与使用其他本地部署的服务的需求,但又不想每天重新配置公网地址,还想让公网地址好看又好记并体验更多功能与更快的带宽,那我推荐大家选择使用固定的二级子域名方式来为本地服务配置一个公网地址。

5. 配置固定公网地址

接下来演示如何为本地ollama配置固定的HTTP公网地址,该地址不会变化,方便分享给别人长期查看你部署的项目,而无需每天重复修改服务器地址。

配置固定http端口地址需要将cpolar升级到专业版套餐或以上。

登录cpolar官网,点击左侧的预留,选择保留二级子域名,设置一个二级子域名名称,点击保留:

image-20250321144407766

保留成功后复制保留成功的二级子域名的名称:csollama,大家也可以设置自己喜欢的名称。

image-20250321144748454

返回Cpolar web UI管理界面,点击左侧仪表盘的隧道管理——隧道列表,找到所要配置的隧道:ollama,点击右侧的编辑:

image-20250321144825087

修改隧道信息,将保留成功的二级子域名配置到隧道中

  • 域名类型:选择二级子域名
  • Sub Domain:填写保留成功的二级子域名:csollama

点击更新(注意,点击一次更新即可,不需要重复提交)

image-20250321145203916

更新完成后,打开在线隧道列表,此时可以看到公网地址已经发生变化,地址名称也变成了固定的二级子域名名称的域名:

image-20250321145249020

最后,我们使用上面的任意一个固定公网地址,粘贴到Cherry Studio客户端的ollama模型服务的API地址里:

image-20250321145426347

返回聊天助手界面,同样能看到在本地部署的qwq32b和deepseek模型,并正常聊天。

image-20250321145819864

远程调用本地qwq32b模型使用智能体排版文章也没问题!

image-20250321150344413
image-20250321151646214

总结

通过以上步骤,我们实现了在Windows系统电脑本地安装Cherry Studio客户端并配置本地AI大模型服务,并使用cpolar内网穿透工具轻松实现在公网环境中也能使用Cherry Studio远程访问本地部署的大模型,并为本地服务配置固定不变的二级子域名公网地址的全部流程。

经过简单测试,Cherry Studio这款AI工具确实效果很惊艳,支持的功能也非常多,而结合内网穿透使用则降低了使用门槛,无需二次部署,提高效率。另外,Cherry Studio针对个人用户免费,企业用户请联系官方合作。非常期待Cherry Studio后续的发展,也感谢您的观看,有任何问题欢迎留言交流。

AI的未来是协作,CherryStudio+cpolar的组合正是如此:打破模型边界,突破设备限制。如果你也在寻找高效的AI协作方案,这个开源工具值得一试——毕竟,好的工具应该让复杂的事情变简单

本篇文章知识点来源[cpolar官网][https://www.cpolar.com]

Read more

英伟达GTC 2026大会开幕:AI智能体时代正式到来,黄仁勋发布新一代推理芯片与Rubin架构

英伟达GTC 2026大会开幕:AI智能体时代正式到来,黄仁勋发布新一代推理芯片与Rubin架构

导读:北京时间3月16日,全球AI行业的目光聚焦圣何塞。英伟达创始人黄仁勋在GTC 2026大会主题演讲中,正式宣告AI产业从“造模型”迈入“用模型”的新纪元,发布了新一代推理芯片与Rubin架构,并推出对标OpenAI的AI智能体平台。这场科技盛宴不仅揭示了未来三年的技术方向,更将直接影响千行百业的数字化转型进程。 核心新闻摘要 时间:2026年3月16日(北京时间) 事件:英伟达GTC 2026大会在加州圣何塞正式开幕,黄仁勋发表了长达两小时的主题演讲。 核心发布: * 新一代推理芯片:性能较上一代提升50%,功耗降低30%,专门针对AI智能体、大规模推理场景优化。同时推出了更便宜的入门级AI芯片,旨在降低中小企业使用AI的门槛。 * Rubin架构GPU(R100/R200系列):基于3nm工艺与HBM4内存,性能实现代际跃升,聚焦AI工厂与物理AI应用。 * AI智能体平台:对标OpenAI,支持工业制造、办公文档、智能家居等多场景的自主任务执行,能够自主学习用户习惯,优化交互体验。 * 开源大模型圆桌讨论:黄仁勋亲自主持,邀请Perplexity创始人Ar

它是 Copilot 的“激进版”,也是 Cursor 的最强平替:Roo Code 深度上手指南(深度解析 + API配置)

它是 Copilot 的“激进版”,也是 Cursor 的最强平替:Roo Code 深度上手指南(深度解析 + API配置)

【摘要】 当 GitHub Copilot 还在做“完形填空”时,真正的 AI Agent 已经开始帮我们写整个模块了。本文深度解析开源界的新星——Roo Code(原 Roo Cline)。作为一款 AI 原生 的 VS Code 插件,它凭借MCP 协议集成、影子 Git 安全网以及完全开源的 BYOK(自带 Key)模式,正迅速成为高级开发者的心头好。本文将从架构设计、Token 经济学、实战配置到与 Cursor/Cline 的全方位对比,带你通过 Roo Code 掌握下一代“人机协作”的开发流。无论你是想用 DeepSeek R1

AI安全高阶:AI模型可解释性与安全防护的结合

AI安全高阶:AI模型可解释性与安全防护的结合

AI安全高阶:AI模型可解释性与安全防护的结合 📝 本章学习目标:本章深入探讨高阶主题,适合有一定基础的读者深化理解。通过本章学习,你将全面掌握"AI安全高阶:AI模型可解释性与安全防护的结合"这一核心主题。 一、引言:为什么这个话题如此重要 在AI技术快速发展的今天,AI安全高阶:AI模型可解释性与安全防护的结合已经成为每个AI从业者和企业管理者必须了解的核心知识。随着AI应用的深入,安全风险、合规要求、治理挑战日益凸显,掌握这些知识已成为AI时代的基本素养。 1.1 背景与意义 💡 核心认知:AI安全、合规与治理是AI健康发展的三大基石。安全是底线,合规是保障,治理是方向。三者相辅相成,缺一不可。 近年来,AI安全事件频发,合规要求日益严格,治理挑战不断升级。从数据泄露到算法歧视,从隐私侵犯到伦理争议,AI发展面临前所未有的挑战。据统计,超过60%的企业在AI应用中遇到过安全或合规问题,造成的经济损失高达数十亿美元。 1.2 本章结构概览 为了帮助读者系统性地掌握本章内容,我将从以下几个维度展开:

AI绘画风格测试终极指南:5个技巧快速掌握艺术生成

AI绘画风格测试终极指南:5个技巧快速掌握艺术生成 【免费下载链接】StableDiffusion-CheatSheetA list of StableDiffusion styles and some notes for offline use. Pure HTML, CSS and a bit of JS. 项目地址: https://gitcode.com/gh_mirrors/st/StableDiffusion-CheatSheet StableDiffusion-CheatSheet是一个纯HTML、CSS和少量JS构建的离线风格参考工具,包含大量Stable Diffusion艺术风格和使用笔记。本文将通过5个实用技巧,帮助新手快速掌握AI绘画的风格测试与应用方法,让你的创作轻松拥有专业艺术质感。 一、风格关键词精准匹配法 🎨 AI绘画的核心在于风格关键词的精准使用。项目提供了数百位艺术家风格参考,每个风格都对应独特的视觉语言。例如: 不同艺术家风格的AI生成效果对比,展示关键词对最终结果的决定性影响 操作步骤: 1. 基础公式:主体描述 + by