Gemini 系列模型详细对比 及 Google AI Studio 免费使用说明

Gemini 系列模型详细对比 及 Google AI Studio 免费使用说明

Gemini 系列模型详细对比 (2.5 Pro Preview, 2.0 Flash, Flash Image Gen Exp, Flash-Lite, Flash Thinking Exp) 及 Google AI Studio 免费使用说明

以下是根据您提供的五张图片对各个模型的详细解释和归纳:

1. Gemini 2.5 Pro Preview 03-25 (gemini-2.5-pro-preview-03-25)

  • 定位: 功能最强大、上下文窗口最大的预览版模型。
  • API 定价 (每百万 Tokens):
    • 输入 <= 200K tokens: $1.25
    • 输出 <= 200K tokens: $10.00
    • 输入 > 200K tokens: $2.50
    • 输出 > 200K tokens: $15.00
    • (注:API 定价,通过 UI 使用免费)
  • 擅长领域: 编码 (Coding), 推理 (Reasoning), 多模态理解 (Multimodal understanding)。
  • 使用场景: 解决复杂问题,处理困难的代码、数学和 STEM 问题,利用长上下文分析大型数据集、代码库或文档。
  • 知识截止: 2025 年 1 月。
  • 速率限制 (Rate limits):
    • 付费/高配额: 150 RPM (每分钟请求数)
    • 免费 (Google AI Studio): 5 RPM, 25 req/day (每日请求数)
  • 延迟 (Latency): 中等。

2. Gemini 2.0 Flash (gemini-2.0-flash)

  • 定位: 速度快、成本效益高的多模态模型。
  • API 定价 (每百万 Tokens):
    • 输入: $0.10
    • 输出: $0.40
    • (适用于所有上下文长度,API 定价,通过 UI 使用免费)
  • 擅长领域: 多模态理解 (Multimodal understanding), 实时流式处理 (Realtime streaming), 原生工具使用 (Native tool use)。
  • 使用场景: 处理万行级别的代码,原生调用工具 (如搜索),实时流式传输图像和视频。
  • 知识截止: 2024 年 8 月。
  • 速率限制 (Rate limits):
    • 付费/高配额: 2000 RPM
    • 免费 (Google AI Studio): 15 RPM, 1500 req/day
  • 延迟 (Latency): 中低(比 2.5 Pro 快)。

3. Gemini 2.0 Flash (Image Generation) Experimental (gemini-2.0-flash-exp-image-generation)

  • 定位: 实验性的、专注于图像生成的多模态模型。
  • API 定价 (每百万 Tokens):
    • 输入: $0.00
    • 输出: $0.00
    • (当前 API 免费,可能是实验性或促销性质。通过 UI 使用也免费)
  • 擅长领域: 多模态理解 (Multimodal understanding), 多模态生成 (Multimodal generation), 原生工具使用 (Native tool use)。
  • 使用场景: 处理万行级别的代码,原生调用工具 (如搜索),生成穿插文本和图像的内容。
  • 知识截止: 2024 年 8 月。
  • 速率限制 (Rate limits):
    • 付费/高配额: 10 RPM
    • 免费 (Google AI Studio): 10 RPM, 1500 req/day
    • (注意:免费和付费 RPM 相同,反映其实验性质)
  • 延迟 (Latency): 中等。

4. Gemini 2.0 Flash-Lite (gemini-2.0-flash-lite)

  • 定位: 最轻量级、速度最快、成本最低的 Flash 版本。
  • API 定价 (每百万 Tokens):
    • 输入: $0.075
    • 输出: $0.30
    • (适用于所有上下文长度,API 定价,通过 UI 使用免费)
  • 擅长领域: 长上下文 (Long Context), 实时流式处理 (Realtime streaming), 原生工具使用 (Native tool use)。
  • 使用场景: 处理万行级别的代码,原生调用工具 (如搜索),实时流式传输图像和视频。
  • 知识截止: 2024 年 8 月。
  • 速率限制 (Rate limits):
    • 付费/高配额: 4000 RPM
    • 免费 (Google AI Studio): 30 RPM, 1500 req/day
  • 延迟 (Latency): 低 (是这五个模型中最低的)。

5. Gemini 2.0 Flash Thinking Experimental 01-21 (gemini-2.0-flash-thinking-exp-01-21)

  • 定位: 实验性的、能展示思考过程的模型。
  • API 定价 (每百万 Tokens):
    • 输入: $0.00
    • 输出: $0.00
    • (当前 API 免费,可能是实验性或促销性质。通过 UI 使用也免费)
  • 擅长领域: 多模态理解 (Multimodal understanding), 推理 (Reasoning), 编码 (Coding)。
  • 使用场景: 对最复杂的问题进行推理,展示模型的思考过程 (Show the thinking process of the model),处理困难的代码和数学问题。
  • 知识截止: 2024 年 8 月。
  • 速率限制 (Rate limits):
    • 付费/高配额: 10 RPM
    • 免费 (Google AI Studio): 10 RPM, 1500 req/day
    • (注意:免费和付费 RPM 相同,反映其实验性质)
  • 延迟 (Latency): 中等。

模型归纳总结:

  • 能力层级: Gemini 2.5 Pro Preview > Gemini 2.0 Flash ≈ Gemini 2.0 Flash Thinking Exp ≈ Gemini 2.0 Flash Image Gen Exp > Gemini 2.0 Flash-Lite。Pro 版本在推理、编码和长上下文处理上更强,但成本更高,免费额度最低。
  • Flash 系列: Flash 系列(包括 Flash, Flash-Lite, 和两个 Experimental 版本)旨在提供速度和成本效益。Flash-Lite 是其中最快、最便宜的版本。
  • Experimental 版本: 这两个实验性模型 (Image Generation 和 Thinking) 目前 API 免费,提供了独特的功能(图像生成、展示思考过程),但速率限制较低且可能不稳定或未来会收费。
  • 知识库: 2.5 Pro Preview 的知识更新到 2025 年 1 月,而其他 Flash 系列模型截止到 2024 年 8 月。
  • 延迟与吞吐量: Flash-Lite 延迟最低,免费 RPM 最高。2.5 Pro Preview 免费 RPM 和每日请求数最低。Flash (标准版) 在免费额度和延迟之间取得较好平衡。实验性模型免费 RPM 较低。

关于 Google AI Studio 免费使用的解释:

是的,您的问题理解是正确的。直接在 Google AI Studio 这个用户界面 (UI) 中使用这些 Gemini 模型是免费的。

这里的“免费”具体含义是:

  1. Google AI Studio 平台本身免费: 访问和使用 Google AI Studio 的网站界面不需要付费。
  2. 模型调用在免费配额内免费: 当您在 Google AI Studio 中与这些模型互动(例如,通过聊天界面提问、运行代码生成等)时,这些操作实际上是在调用相应的 Gemini API。只要您的调用频率和总量没有超过 Google 为每个模型设定的免费层级配额 (Free Tier Quota),这些调用就是免费的。
  3. 超出配额会报错,而非收费: 如果您在 Google AI Studio 中的使用量超过了免费配额(例如,在一分钟内发送了过多请求 RPM,或一天内总请求数超过 RPD),您会收到错误提示,API 调用将暂时失败,直到您的使用频率回落到限制内。您不会因为在 Google AI Studio 中超出免费配额而被自动收取费用。 只有当您明确设置了结算账号,并将项目升级到付费计划,并通过 API(而不是 AI Studio UI)进行调用超出了免费额度时,才会产生费用。

各模型在 Google AI Studio 中的每日免费额度总结:

  • Gemini 2.5 Pro Preview 03-25:
    • 每分钟请求数 (RPM): 5
    • 每日请求数 (RPD): 25
  • Gemini 2.0 Flash:
    • 每分钟请求数 (RPM): 15
    • 每日请求数 (RPD): 1500
  • Gemini 2.0 Flash (Image Generation) Experimental:
    • 每分钟请求数 (RPM): 10
    • 每日请求数 (RPD): 1500
  • Gemini 2.0 Flash-Lite:
    • 每分钟请求数 (RPM): 30
    • 每日请求数 (RPD): 1500
  • Gemini 2.0 Flash Thinking Experimental 01-21:
    • 每分钟请求数 (RPM): 10
    • 每日请求数 (RPD): 1500

重要提示:

  • 这些免费配额是针对每个 Google Cloud 项目单独计算的。
  • 速率限制 (RPM 和 RPD) 是使用这些模型时需要注意的主要免费限制。
  • 虽然图片中显示两个实验性模型的 API 定价为 $0.00,但这通常是暂时的,未来可能会调整。但在 Google AI Studio 中使用它们始终遵循上述免费配额规则。

Read more

前端部署:从开发到生产的最后一公里

前端部署:从开发到生产的最后一公里 毒舌时刻 前端部署?这不是运维的事吗? "我只负责写代码,部署交给运维"——结果部署失败,互相甩锅, "我直接把文件上传到服务器"——结果更新不及时,缓存问题频发, "我用FTP上传,多简单"——结果文件传丢,网站崩溃。 醒醒吧,前端部署是前端开发的重要环节,不是别人的事! 为什么你需要这个? * 快速上线:自动化部署,减少人工操作 * 环境一致性:确保开发、测试、生产环境一致 * 回滚能力:出现问题时可以快速回滚 * 监控和日志:实时监控网站状态和错误 反面教材 # 反面教材:手动部署 # 1. 本地构建 npm run build # 2. 手动上传文件 ftp ftp://example.

Web 服务与 I/O 模型

一、Web 服务介绍 1.1.1 Apache prefork 模型(预派生模式) * 核心机制:主控制进程派生多个独立子进程,使用select模型,最大并发 1024;每个子进程单线程响应用户请求 * 资源特性:占用内存较多,但稳定性极高 * 配置特点:可设置进程数的最大值和最小值 * 适用场景:访问量中等的场景 * 优缺点 * ✅ 优点:极致稳定,故障隔离性好 * ❌ 缺点:每个请求对应一个进程,资源占用高,并发能力弱,不适合高并发场景 1.1.2 Apache worker 模型(多进程 + 多线程混合模式) * 核心机制:主进程启动多个子进程,每个子进程包含固定线程数;线程处理请求,线程不足时新建子进程补充 * 资源特性:相比 prefork 内存占用更少,支持更高并发

一天一个开源项目(第47篇):Cursor Chat Browser - 浏览和管理 Cursor AI 聊天历史的 Web 应用

一天一个开源项目(第47篇):Cursor Chat Browser - 浏览和管理 Cursor AI 聊天历史的 Web 应用

引言 “View, search, and export your AI conversations in various formats.” 这是「一天一个开源项目」系列的第 47 篇文章。今天介绍的项目是 Cursor Chat Browser(GitHub)。 使用 Cursor 编辑器进行 AI 编程时,是否遇到过这些问题:想回顾之前的对话却找不到?想搜索某个技术问题的解决方案却无从下手?想导出聊天记录分享给团队却不知道如何操作?Cursor Chat Browser 是一个用于浏览和管理 Cursor 编辑器 AI 聊天历史的 Web 应用,支持查看、搜索和导出你的 AI 对话为 Markdown、HTML、PDF 等多种格式,让你轻松管理和回顾与 AI

Sentry错误上报:AI配置前端监控SDK参数

Sentry错误上报:AI配置前端监控SDK参数 在现代AI驱动的前端应用中,用户与语言模型的每一次交互都可能隐藏着潜在的异常。尤其是当部署像 VibeThinker-1.5B-APP 这类轻量级语言模型用于数学推理和代码生成任务时,看似简单的“提问—响应”流程背后,实则涉及提示词解析、上下文管理、网络通信与运行时环境等多个环节。一旦某个环节出错——比如系统提示词未正确设置、请求超时或输入格式异常——用户体验将直接受损,而开发团队若缺乏有效的可观测手段,则调试过程往往如同盲人摸象。 Sentry 作为业界领先的开源错误追踪平台,其价值不仅体现在捕获 JavaScript 异常上,更在于它能构建完整的上下文链路,帮助我们理解“错误是如何一步步发生的”。但在 AI 场景下,直接套用传统 Web 应用的监控配置已远远不够。如何在保障数据安全的前提下,精准捕获与模型行为强相关的运行时信息?这正是我们需要重新思考的问题。 初始化即防线:Sentry.init() 的智能配置策略 所有监控能力的起点,都始于 Sentry.init()。这个看似普通的初始化函数,实际上是整个前端可观测体系