【AI】免费的代价?Google AI Studio 使用指南与 Cherry Studio + MCP 实战教程

【AI】免费的代价?Google AI Studio 使用指南与 Cherry Studio + MCP 实战教程
🟢 定义速览:Google AI Studio 是使用谷歌相关模型的网页;Cherry Studio 是可以使用多种模型API Key的桌面软件。

文章目录

一、Google AI Studio

本小节内容基本可以在Gemini API文档中找到更详细的描述。

🔗URL:https://aistudio.google.com/

在这里插入图片描述

1.1 和Gemini网页版的区别

简单来说就是:Google AI Studio 可自定义的设置更多。

  1. Gemini 网页版的Deep Research、Canvas等功能在AI Studio是没有的。
  2. 对上传的文件格式支持不同:这方面Gemini 网页版支持更丰富一些,如:AI Studio 里面不能上传xlsx表格。

参数调整:AI Studio以调整 Temperature(创造性 vs 严谨性)、Top-K/Top-P、Output Length(输出长度限制)、图片数量、图片分辨率等等

在这里插入图片描述

模型选择:Gemini 网页版 只能指定是最新模型的Flash(快速)或者Pro(思考)模式。而Studio 可以指定多种模型。

在这里插入图片描述

其它的则是相似的,如AI Studio可以预设多个提示词(AI Studio里面叫做:System instructions),而Gemini 网页版可以在设置-个人使用场景中设置全局的指令,也可以创建Gem(即给特定场景设置专属指令/提示词,知识库),以应对不同的需求。

在这里插入图片描述

1.2 免费层级的用量限制

Google AI Studio 里面可以免费使用最新的模型(以及旧模型),但有限制和代价

速率限制通常从以下三个维度进行衡量:每分钟请求数 (RPM)每分钟 token 数(输入)(TPM)每日请求数 (RPD)我们会根据每项限制评估您的用量,如果超出任何一项限制,系统都会触发速率限制错误。例如,如果您的 RPM 限制为 20,那么在一分钟内发出 21 个请求会导致错误,即使您未超出 TPM 或其他限制也是如此。速率限制按项目应用,而不是按 API 密钥应用。每天的请求数 (RPD) 配额会在太平洋时间午夜重置。限额因所用模型而异,并且部分限额仅适用于特定模型。例如,每分钟生成的图片数 (IPM) 仅针对能够生成图片的模型(Imagen3)计算,但在概念上与 TPM 类似。其他模型可能设有每日 token 数量上限 (TPD)。实验性模型和预览版模型的速率限制更为严格。
来源:Gemini API文档-速率限制

🟢速率限制与项目的用量层级(Tier)相关联:

在这里插入图片描述

🟢这里就把Tier1的速率限制列出来:这是变化的,只作为参考,仅仅是发文时的数据,这里是非批量API的速率限制

主要看最后一列:每日请求次数限制(RPD)即可。

免费层级的我没找到准确数据(也懒得找😆),但据我以前的使用经验:对话一般每天足够使用的(除非你1+1这种问题也要问),图片生成数量很少,好像就几张。只要绑定有效的卡,就可以升级Tier1,使用这个key是付费的。免费层级,也可以创建API Key,这个key你可以在你的代码中使用,或者其它软件中使用,速率一样有限制。网页对话的Gemini3.0 Pro不适用以上内容,也不是本文的主题。
在这里插入图片描述

1.3 Google AI Studio 隐私问题(重要)

1.31 案例分享

🟠三星源码泄露事件(2023):

  • 这是所有大模型(包括 Google Gemini)“免费层级”隐私警告的源头案例。虽然主角是 ChatGPT,但它直接导致了 Google 随后更新了极其严格的内部政策,并警告用户:“免费层级的对话就是训练数据”。
在这里插入图片描述


🟠针对 Google Gemini 的“秘密监控”集体诉讼 (2025年11月):

在这里插入图片描述

1.32 Gemini API 附加服务条款

直接看官方文档吧:

在这里插入图片描述


在这里插入图片描述

即使你使用的是后者,也最好不要上传敏感、机密、个人信息,开源尚且有风险,闭源就更不必说了。(其它领域也是类似,如不要向网盘上传我列举的那些内容)


1.4 API Key的价格

列出3.0的对话和画图的价格,其它模型以去官网文档查看:

下图中的:官网的谷歌翻译有问题,这里说明一下

  • token、词元、令牌 都代表:tokens
  • 提示:prompts,即你的输入(一段文字,一个pdf,一个代码等等)

🟢token与单词、汉字之间的数量关系:

语言/类型换算关系 (预估)备注
英文 (English)100 Tokens ≈ 60 ~ 80 个单词官方数据。通常按 1 Token ≈ 0.75 个单词 估算最准。
中文 (Chinese)100 Tokens ≈ 60 ~ 100 个汉字中文比较复杂。现代模型(如 Gemini)通常 1 个汉字 ≈ 1 ~ 1.5 个 Token
字符 (Characters)1 Token ≈ 4 个字符这里的“字符”主要指英文字母。
20万个token相当于:大约 150,000 个英文单词。大约 130,000 ~ 200,000 个汉字

🟢Gemini 3 Pro 预览版:

简要解释:这个是按照一次会话(可以有多轮,直到你发起新的对话)计算的,在这一次会话中,如果你的输入内容总长度不大于20万个tokens,那么:输入价格就是2美元/100万tokens,输出价格就是12美元/100万tokens。

场景:输入 100 tokens,输出 1000 tokens,没超过 20万档位。

  1. 输入费:
    100  tokens × $ 2.00 1 , 000 , 000 = $ 0.0002 100 \text{ tokens} \times \frac{\$2.00}{1,000,000} = \$0.0002 100 tokens×1,000,000$2.00​=$0.0002
  2. 输出费:
    1000  tokens × $ 12.00 1 , 000 , 000 = $ 0.012 1000 \text{ tokens} \times \frac{\$12.00}{1,000,000} = \$0.012 1000 tokens×1,000,000$12.00​=$0.012
  3. 总费用:
    $ 0.0002 + $ 0.012 = $ 0.0122 \$0.0002 + \$0.012 = \mathbf{\$0.0122} $0.0002+$0.012=$0.0122
上下文缓存: AI模型是无状态的,它不会自动记住上次对话。每次请求都是一个独立事件,必须把需要它知道的“记忆”(即上下文,即前面所有输入输出)全部塞给它。因此,处理长文档的多轮对话会非常昂贵,因为每次都要为不断变长文档付费。

如果,我一开始就丢给他一本书的PDF,那我问了几个问题后,费用不是爆炸?💥

不会:模型有上下文缓存功能,2.5及以后的模型的隐式缓存默认处于启用状态,当上下文的tokens大于4096时即可开启,这会降低你的费用。(显式缓存开启时你自己使用Gemini的SDK、API写代码调用时的选项,网页版和Studio中没有相关选项)
所以:每次聊天的上下文不要太长了,一方面是价格问题,另一方面是上下文太长会降智,比如一直回复相同的内容。
在这里插入图片描述

🟢Gemini 3 Pro Image 预览版:

在这里插入图片描述

1.5 Google AI Studio 使用说明

目前页面不支持中文的(聊天支持),页面的英文选项你应该都认识。

先用图片标注说明这个页面的各部分是什么含义吧:

在这里插入图片描述

🟢模型参数解释:

💬(1)对话:功能是否开启,根据你的需求来,比如你发给它一个网址,让它读,就开启URL context

参数名称 (Parameter)中文名功能详解设置与建议
Temperature温度控制随机性。0最严谨(适合代码),2最奔放(适合创意)。1是平衡点。1 (平衡,通用性好)
Media resolution媒体分辨率识别图片/视频时的清晰度。Default是速度与细节的折中。Default (默认,够用)
Thinking level思考等级推理模型专用。决定模型在回答复杂问题前“思考”的时间长度。High (深度思考,适合难任务)
Structured outputs结构化输出强制模型只吐出标准 JSON 格式,开发程序接口时用。关闭 (一般对话不用开)
Code execution代码执行给模型一个Python环境,能写代码并真跑(算数、画图)。关闭 (建议做数据分析时开启)
Function calling函数调用让模型连接你的外部工具(API),是做智能体(Agent)用的。关闭
Grounding with Google Search谷歌搜索联网能力。开启后可查实时信息(新闻、天气、股价)。开启 (回答会带引用来源)
URL context网址上下文允许直接读取提示词里贴的链接网页内容关闭
Safety settings安全设置敏感内容(如仇恨言论)的过滤阈值。默认
Add stop sequence停止序列设定一个“暗号”,模型一旦说到这个词就立马闭嘴(停止生成)。
Output length输出长度单次回答的最大容量(Token数)。65k大约能写几万字。65536 (拉满即可)
Top P核采样辅助控制随机性,只选概率前95%的词,防止模型胡言乱语。0.95 (标准值,不用动)

🖼️(2)画图:

参数名称中文含义功能解释推荐用法
Aspect ratio宽高比决定生成图片的形状比例根据你的需求选
Resolution生成分辨率决定生成图片的清晰度/像素大小根据需求选择

音视频的就不说了,选项很少。

不同模型的参数有差异,如Imagen 4 ,可以一次最多生成4张不同的图片。

画图最好的是Nano Banna Pro,中文支持也好。

二、Cherry Studio

2.1 速通

Cherry Studio 是一款开源、跨平台的 AI 桌面客户端,专门为专业用户和开发者设计。

它就像一个 “万能聚合器” :你不需要去打开一个个独立的网页(比如 ChatGPT、Claude、DeepSeek 官网),而是把这些模型全部装进这一个软件里,通过你自己的 API Key 来使用,同时加上了极其强大的本地功能(如知识库、自动化助手)。

直接去github即可下载:https://github.com/CherryHQ/cherry-studio
或者去官网:https://www.cherry-ai.com/


如使用gemini-3-pro-previewgemini-3-pro-image-preview(这两个叫做模型id):

在这里插入图片描述


画图示例:

在这里插入图片描述

各种功能自己探索即可,都是中文。

2.2 MCP

知识库什么的,就不展开说了,比如你有一项新技术,你可以把相关论文、教程创建一个知识库,让AI基于这个知识库回答。

AI的知识库是落后的,让它搜索也可能效果不好,较新、冷门的内容可以创建知识库。

这里说一下Cherry Studio的MCP功能。

MCP 全称是 Model Context Protocol(模型上下文协议):它的核心目的是:打破 AI 的孤岛状态,让 AI 能以一种标准化的方式,去读取你本地的数据、操作你的工具。

使用VScodeCursorGoogle Antigravity 的时候,AI可以读取你整个项目的内容,再使用Agent的话,还能完全操控你的文件(增加、删除、修改等),而Cherry Studio 默认没有这些功能。

先添加文件系统MCP:

在这里插入图片描述

填写配置:

在这里插入图片描述

示例:主要设置args那里的项目目录(可以填写多个目录,告诉AI你要操作哪个即可),以及isActive设置为true

{"mcpServers":{"U-B_DuXl3EbzIGGOMeFNF":{"isActive": true,"name":"@cherry/filesystem","type":"inMemory","args":["E:/AI/BrowserExtension"],"provider":"CherryAI","shouldConfig": true,"installSource":"builtin","isTrusted": true },"wU439NroVcqpl5K26dpRQ":{"isActive": false,"name":"wU439NroVcqpl5K26dpRQ","type":"stdio","installSource":"unknown"}}}

在对话里面选择这个MCP,AI就能读取电脑上的文件了:

在这里插入图片描述


让它生成一个readme文件:

在这里插入图片描述


检查无误:

在这里插入图片描述

不过目前使用下来还是没有前面我提到的那3个编辑器舒服😆


你可以添加其它AI的key,如deepseek的,去deepseek开放平台弄就行了。

Read more

《Whisper模型版本及下载链接》

《Whisper模型版本及下载链接》

Whisper模型版本及下载链接 Whisper是OpenAI开发的语音识别模型,以下按模型规模从小到大排列,包含不同语言版本及通用版本: 1. Tiny系列(轻量级) * tiny.en.pt(英文专用): https://openaipublic.azureedge.net/main/whisper/models/d3dd57d32accea0b295c96e26691aa14d8822fac7d9d27d5dc00b4ca2826dd03/tiny.en.pt * tiny.pt(多语言通用): https://openaipublic.azureedge.net/main/whisper/models/65147644a518d12f04e32d6f3b26facc3f8dd46e5390956a9424a650c0ce22b9/tiny.pt 2. Base系列(基础版) * base.en.pt(英文专用): https://openaipublic.azureedge.net/main/whisper/models/25a8566e1d0

Qwen3-Embedding-4B推荐方案:llama.cpp集成部署教程

Qwen3-Embedding-4B推荐方案:llama.cpp集成部署教程 1. 引言 1.1 通义千问3-Embedding-4B:面向未来的文本向量化模型 Qwen3-Embedding-4B 是阿里云通义千问(Qwen)系列中专为「语义向量化」设计的中等规模双塔模型,于2025年8月正式开源。该模型以4B参数量、2560维输出向量、支持32k长文本上下文为核心亮点,定位为兼顾性能与效率的企业级语义理解基础设施组件。 其在MTEB(Multilingual Task Evaluation Benchmark)三大子集上表现优异:英文74.60、中文68.09、代码73.50,均优于同尺寸开源embedding模型。更重要的是,它支持119种自然语言及主流编程语言,在跨语言检索、bitext挖掘等任务中达到官方评估S级水平。 得益于Apache 2.0开源协议,Qwen3-Embedding-4B可直接用于商业场景,无需额外授权,极大降低了企业构建多语言知识库、智能客服、文档去重系统的门槛。 1.2 部署目标:轻量化 + 高性能

语音识别本地化:探索OpenAI Whisper的离线部署与创新应用

语音识别本地化:探索OpenAI Whisper的离线部署与创新应用 【免费下载链接】whisper-base.en 项目地址: https://ai.gitcode.com/hf_mirrors/openai/whisper-base.en 在数据隐私日益受到重视的今天,如何在不依赖云端服务的情况下实现高效语音转文字?OpenAI Whisper作为一款开源语音识别模型,正以其98%以上的识别准确率和完全本地化的处理能力,重新定义个人与企业的音频处理方式。本文将带你深入探索Whisper的技术原理、部署流程及创新应用场景,让你在隐私安全与识别效率之间找到完美平衡。 探索本地化语音识别的技术价值 你可能会好奇,为什么越来越多的开发者选择本地部署语音识别系统?与传统云端方案相比,Whisper带来了三重核心优势:首先是数据主权的完全掌控——所有音频处理均在本地设备完成,避免敏感信息上传云端的隐私风险;其次是99种语言的全面支持,从日常对话到专业术语都能精准识别;最后是离线环境下的稳定运行,即使在网络不稳定的场景中也能保持高效工作。 📌 技术突破点:Whisper采用基于Tr

技术速递|GitHub Copilot SDK 与云原生的完美融合

技术速递|GitHub Copilot SDK 与云原生的完美融合

作者:卢建晖 - 微软高级云技术布道师 排版:Alan Wang 引言 在当今快速演进的 AI 技术格局中,我们已经见证了从简单聊天机器人到复杂智能体系统的转变。作为一名开发者和技术布道者,我观察到一个正在形成的趋势——重点不在于让 AI 无所不能,而在于让每一个 AI Agent 在特定领域做到极致、做到专业。 今天,我想分享一套令人兴奋的技术组合:GitHub Copilot SDK(将生产级智能体引擎嵌入任意应用的开发工具包) + Agent-to-Agent(A2A)Protocol(实现智能体标准化协作的通信规范) + 云原生部署(支撑生产系统的基础设施)。这三者结合在一起,使我们能够构建真正具备协作能力的多智能体系统。 从 AI 助手到智能体引擎:重新定义能力边界 传统的 AI 助手往往追求“全能”——试图回答你抛给它的任何问题。但在真实的生产环境中,这种方式会遇到严重挑战: * 质量不一致:一个模型同时写代码、做数据分析、