AI 单词别读错了!Gemini 到底该怎么读?

很多人第一次见到 Gemini,都会念成:

  • “鸡米你”?
  • “杰么你”?
  • “杰摸奶”?

结果让国外同事听了,忍不住笑场 😅
其实它的标准美式发音是 /ˈdʒɛmɪˌnaɪ/,中文谐音:杰米奶

程序员虽然不靠口语,但常见 AI 单词还是希望能读对一点,交流就更顺畅啦。今天整理一份 美式发音 + 中文谐音速查表,帮大家避免尴尬发音。


🔹 常见 AI 模型 / 公司

单词美式音标中文谐音
GPT/ˌdʒiː.piːˈtiː/吉屁踢
ChatGPT/tʃæt ˌdʒiː.piːˈtiː/恰特 吉屁踢
OpenAI/ˌoʊpənˈeɪˌaɪ/欧喷 诶艾
Anthropic/ænˈθrɑːpɪk/安丝弱匹克
Claude/klɔːd/克牢德
DeepSeek/ˈdiːp siːk/迪普西克
LLaMA/ˈlɑːmə/拉马
Mistral/ˈmɪstrəl/米丝丑
Gemini/ˈdʒɛmɪˌnaɪ/杰米奶
Copilot/ˈkoʊˌpaɪlət/口派乐特

🔹 常见工具 / 编程术语

单词美式音标中文谐音
cursor/ˈkɝːsɚ/可儿色儿
sonnet/ˈsɑːnɪt/萨尼特
prompt/prɑːmpt/普弱姆普特
merge/mɝːdʒ/么儿支
token/ˈtoʊkən/偷肯
model/ˈmɑːdəl/马逗
query/ˈkwɪri/亏锐
chat/tʃæt/恰特
agent/ˈeɪdʒənt/诶整特
commit/kəˈmɪt/可密特
debug/diˈbʌɡ/滴巴格
syntax/ˈsɪntæks/心太可死
dataset/ˈdeɪtəˌsɛt/得它赛特
epoch/ˈepək/诶怕可
tensor/ˈtɛnsɚ/疼色儿
Python/ˈpaɪθɑːn/派桑(th 轻咬舌尖)
GitHub/ˈɡɪtˌhʌb/机特哈布
Docker/ˈdɑːkɚ/达可儿
pipeline/ˈpaɪpˌlaɪn/派普来恩
API/ˌeɪ.piːˈaɪ/诶屁艾

💡 小结

这些只是最常用的一部分,如果你在日常工作、学习中遇到其他容易读错的 AI 单词,欢迎在评论区补充,我们一起完善这份“发音速查表” 😎

Read more

解析 ‘LLM-as-a-judge’:如何编写一套可靠的 Prompt 让 GPT-4 为你的 Llama-3 输出打分?

各位编程爱好者、AI工程师们: 大家好!欢迎来到今天的技术讲座。今天,我们将深入探讨一个在当前AI领域备受关注且极具实用价值的话题:如何利用“LLM-as-a-judge”范式,特别是如何编写一套可靠的Prompt,让强大的GPT-4模型为我们的Llama-3模型输出进行打分和评估。 随着大语言模型(LLM)技术的飞速发展,我们拥有了Llama-3、GPT-4等一系列令人惊叹的模型。但随之而来的挑战是:我们如何有效地评估这些模型的性能?特别是在微调(fine-tuning)、Prompt工程优化,甚至是模型架构迭代的过程中,我们需要一个快速、可扩展且尽可能客观的评估机制。传统的基于人工标注的评估方式,虽然“金标准”性强,但成本高昂、耗时费力,难以跟上模型迭代的速度。 正是在这样的背景下,“LLM-as-a-judge”应运而生。它利用一个或多个强大的LLM(通常是能力更强的模型,如GPT-4)来评估另一个LLM(例如我们的Llama-3)的输出质量。这种方法不仅可以大幅提升评估效率,还能在一定程度上自动化评估流程,为我们的模型开发提供快速反馈。 今天的讲座,我将作为一名编程专家

Python AI入门:从Hello World到图像分类

Python AI入门:从Hello World到图像分类 一、Python AI的Hello World 1.1 环境搭建 首先,我们需要搭建Python AI的开发环境: # 安装PyTorch pip install torch torchvision # 安装其他依赖 pip install numpy matplotlib 1.2 第一个AI程序 让我们来编写一个最简单的AI程序 - 线性回归: import torch import torch.nn as nn import numpy as np import matplotlib.pyplot as plt # 生成训练数据 x = torch.linspace(

使用 VS Code 和 Android Studio 阅读 Android 源码:基于 Copilot 的高效代码分析技巧

使用 VS Code 和 Android Studio 阅读 Android 源码:基于 Copilot 的高效代码分析技巧

1. 背景 在日常开发中,大家常用 AI 工具(如 ChatGPT、DeepSeek 等)进行代码分析。但通过网页 AI 工具分析代码时,缺乏上下文,需要手动分段粘贴代码,效率低且容易遗漏关键信息。 公司引入 Copilot 后,大家多在 VS Code、Android Studio 等 IDE 插件中用 Copilot 进行代码分析。Copilot 能直接分析当前编辑器中的代码,并支持上下文,极大提升了分析效率,减少了人工粘贴的麻烦。 但实际开发中,仍存在以下痛点: * 代码跳转不连贯:对于 Android.bp soong 构建系统下的 Android 代码,不能自由地跳转到方法定义、实现、符号等。 * 查找方法繁琐:大部分

Qwen3-1.7B代码生成效果如何?GitHub Copilot类比评测

Qwen3-1.7B代码生成效果如何?GitHub Copilot类比评测 最近,阿里开源了新一代的千问大模型系列——Qwen3。这个系列阵容强大,从0.6B到235B,各种尺寸都有。今天,咱们不聊那些动辄几百亿参数的大块头,就聚焦一个特别有意思的小家伙:Qwen3-1.7B。 为什么是它?因为1.7B这个参数量,刚好卡在一个很微妙的位置:它比那些动辄几十亿参数的“大模型”轻巧得多,理论上部署和推理成本都更低;但又比一些纯玩具级别的微型模型要“聪明”不少。更重要的是,它主打的就是代码生成能力。 这让我立刻想到了一个“参照物”——GitHub Copilot。作为目前最流行的AI编程助手,Copilot几乎成了代码生成的代名词。那么,这个新来的、开源的、只有1.7B参数的Qwen3,在代码生成这件事上,到底有几斤几两?它能达到Copilot几成的功力?还是说,它有自己的独特优势? 这篇文章,我就带你一起上手实测,用最直观的方式,看看Qwen3-1.7B在代码生成上的真实表现,