了解ASR(自动语音识别)和模型Whisper

ASR是自动语音识别技术,现代端到端的主流ASR架构为:

音频 → [预处理 → 神经网络编码 → 解码] → 文本
               ↑                                           ↑
           信号处理                          深度学习

Whisper 是由 OpenAI 于 2022 年发布的开源语音识别模型。它是一个基于 Transformer 架构的端到端模型,具有以下核心特点:多任务模型、多语言支持、多种格式、强鲁棒性和无需微调开箱即用。

一、ASR

音频输入与预处理一般通过ffmpeg与VAD配合完成

1、特征提取与编码

现在的ASR通常使用声学特征直接输入神经网络。

常见的声学特征有以下四种,但是现在一般直接使用神经网络自动学习特征,例如Conformer编码器就是神经网络组成的。

  • MFCC(梅尔频率倒谱系数):13-40维
  • 梅尔频谱(Mel-Spectrogram):80-128维  
  • 滤波器组(Filter Bank):40-80维
  • 原始波形(Raw Waveform):端到端模型直接使用
  • Conformer编码器:输入: (T, 80)  # T个时间帧,每帧80维梅尔特征Conformer 编码器:
        1. 子采样卷积层: (T, 80) → (T/4, 512)
        2. 位置编码: 加入时序信息
        3. N个Conformer Block:
            - 前馈网络(Feed Forward)
            - 多头自注意力(Multi-Head Self-Attention)
            - 卷积模块(捕捉局部特征)
            - 残差连接 + 层归一化
        输出: (T/4, 512)  # 高层声学表示
def mel_filter_bank(magnitude_spectrum, sr=16000, n_mels=80): # 1. 创建梅尔尺度滤波器 mel_filters = librosa.filters.mel(sr=sr, n_fft=512, n_mels=n_mels) # 2. 应用滤波器组 mel_spectrum = np.dot(magnitude_spectrum, mel_filters.T) # 3. 取对数(人耳对声音强度的感知是对数的) log_mel_spectrum = np.log(mel_spectrum + 1e-10) return log_mel_spectrum # shape: (帧数, 80) # 梅尔频率:模拟人耳听觉特性 # 低频分辨率高,高频分辨率低
# 现代ASR(如Whisper)直接使用梅尔频谱图 def extract_mel_spectrogram(audio, sr=16000): mel_spec = librosa.feature.melspectrogram( y=audio, sr=sr, n_mels=80, # Whisper使用80维 n_fft=400, # 400个样本(25ms) hop_length=160, # 160个样本(10ms) fmin=0, fmax=8000 ) log_mel_spec = np.log(np.clip(mel_spec, a_min=1e-10)) return log_mel_spec.T # shape: (时间帧数, 80)
def compute_mfcc(log_mel_spectrum, n_mfcc=13): # 离散余弦变换(DCT) mfcc = dct(log_mel_spectrum, type=2, axis=1, norm='ortho') mfcc = mfcc[:, :n_mfcc] # 取前13个系数 return mfcc # shape: (帧数, 13) # MFCC包含: # 0阶:能量 # 1-2阶:谱斜率 # 3-13阶:谱包络细节

2、解码

解码器类型比较

CTC

连接时序分类

RNN-T

循环神经网络转换器

Attention-based Seq2SeqTransfoemer-based
特点每个时间步独立预测结合RNN和CTC编码器-解码器 + 注意力纯注意力机制
优点训练简单、推理快流式友好,考虑上下文效果好、适合长语音并行计算、效果最好
缺点假设输出独立,不考虑上下文训练复杂,推理慢非流式,需要看到完整语音需要大量数据、计算资源多

CTC、解码过程详解

# CTC class CTC_Decoder: def decode(self, encoder_output): # 1. 每个时间步独立预测 # encoder_output shape: (T, 512) logits = self.output_layer(encoder_output) # (T, vocab_size) # 2. 得到每个时间步的字符概率 # 例如:T=100个时间步,每个步有5000个字符的概率 # 3. 移除重复字符和空白符 # 原始: - a a - - b b - c c → "a b c" # 空白符"-"表示静音或过渡 # 4. 选择概率最高的序列 return best_sequence # Attention Seq2Seq class AttentionDecoder: def decode(self, encoder_output): # 初始化 hidden = init_hidden() output = ["<sos>"] # 开始标记 # 自回归生成 for step in range(max_length): # 1. 当前输出词转向量 embed = self.embedding(output[-1]) # 2. 注意力机制 # 计算注意力权重:哪些音频帧对当前词最重要 attn_weights = softmax( self.attention(query=hidden, key=encoder_output) ) # 3. 上下文向量(加权和) context = sum(attn_weights[i] * encoder_output[i] for i in range(T)) # 4. 解码器RNN hidden = self.decoder_rnn(embed, hidden, context) # 5. 预测下一个词 next_word_probs = softmax( self.output_projection(hidden) ) # 6. 选择最可能的词 next_word = argmax(next_word_probs) output.append(next_word) if next_word == "<eos>": # 结束标记 break return output[1:-1] # 去掉开始/结束标记 # Transformer 解码器(如 Whisper) class TransformerDecoder: def decode(self, encoder_output): # 1. 初始化:开始标记 tokens = [self.sos_token] # 2. 自回归生成 for i in range(max_length): # 嵌入层 token_embeds = self.embedding(tokens) # 解码器自注意力(掩码,防止看到未来) dec_output = self.decoder_blocks( token_embeds, encoder_output ) # 预测下一个词 logits = self.output_layer(dec_output[:, -1, :]) next_token = argmax(logits) tokens.append(next_token) if next_token == self.eos_token: break return tokens[1:-1]

3、后处理和格式化输出

好的后处理可以让ASR系统的实用价值提升30-50%,是工业级ASR系统中不可或缺的一环。

后处理包括的操作类型有:标点回复、数字标准化、实体标准化、语法修正、领域适配、流畅性改进等等。

def postprocess_asr_text(raw_text): # 1. 标点恢复 text = add_punctuation(raw_text) # "你好我是语音助手" → "你好,我是语音助手。" # 2. 大小写恢复 text = restore_capitalization(text) # "i live in beijing" → "I live in Beijing" # 3. 数字标准化 text = normalize_numbers(text) # "一二三" → "123" # "two hundred" → "200" # 4. 口语化处理 text = normalize_spoken_text(text) # "gonna" → "going to" # "um", "ah" → 删除 # 5. 专有名词校正 text = correct_proper_nouns(text) # "open ai" → "OpenAI" # 6. 空格规范化 text = re.sub(r'\s+', ' ', text).strip() return text

文本的格式化输出文本有利于信息抽取等操作

def format_asr_output(text, segments, timestamps): output = { 'text': text, # 完整文本 'segments': [ { 'id': i, 'start': seg['start'], 'end': seg['end'], 'text': seg['text'], 'confidence': seg['confidence'] } for i, seg in enumerate(segments) ], 'language': detected_language, 'duration_ms': total_duration, 'word_timestamps': [ { 'word': word, 'start': start_ms, 'end': end_ms } for word, start_ms, end_ms in timestamps ] } return output

二、Whisper

whisper虽然开箱即用,但是首次使用的时候需要下载模型,下载的时候可以选择不同大小的模型tiny、base、small、medium、large,他们的准确率与模型的大小成正比(越大准确率越高),速度与模型大小成反比(越大速度越慢)。

whisper生态系统:以OpenAI的Whisper模型为核心,由社区驱动的工具、框架、应用和服务组成的完整技术栈,如下图

生态工具场景理由
openai/whisper研究和实验功能完整,调试方便
faster-whisper生产环境部署平衡性能与功能
whisper.cppfaster-whisper实时转写/直播延迟低,资源占用少
whisperX需要说话人分离集成diarization
whisper-jaxfaster-whisper云端大批量处理吞吐量高
whisper.cpp移动端/嵌入式内存小,无GPU依赖
whisperX需要词级时间戳词对齐准确

针对whisper衍生出的工具包在调用transcribe()函数的时候会返回不同的结构内容。

1、官方实现——openai-whisper/whisper.cpp的返回结构

openai-whisper包返回的是以下格式:其中text是所有的文本,segments表示每一段的信息(包括文本、开始/结束时间、偏移量),words表示每个词/字的信息。

result = { "text": "完整文本,所有分段合并", # 最常用的结果 "segments": [ # 最重要的部分,包含详细分段信息 { "id": 0, # 分段序号 "seek": 0, # 在音频中的搜索位置(秒) "start": 0.0, # 开始时间(秒) "end": 4.0, # 结束时间(秒) "text": "你好,", # 该段落的文本 # 🔬 解码质量指标(判断准确性) "avg_logprob": -0.2, # 平均对数概率:-1(差)~ 0(完美) "no_speech_prob": 0.02, # 无语音概率:0(是语音)~1(不是语音) "compression_ratio": 1.2, # 压缩比:>2.4可能有问题 "temperature": 0.0, # 解码温度 # 🔢 技术细节 "tokens": [50364, 1234, ...], # 该段的token序列 # 🆕 large-v3新增(需要word_timestamps=True) "words": [ # 词级时间戳 { "word": "你", # 单个词/字 "start": 0.0, # 词开始时间 "end": 0.2, # 词结束时间 "probability": 0.95 # 词置信度 } ] } ], "language": "zh" # 检测到的语言(ISO 639-1代码) }

whisper.cpp返回 json 格式,以下是返回示例:transcription表示转录文本

{ "transcription": [ { "timestamps": { "from": "00:00:00,000", # SRT格式时间戳 "to": "00:00:04,000" }, "offsets": { "from": 0, # 字符偏移量(在全文中的位置) "to": 3 }, "text": "你好,", "tokens": [50364, 1234, ...] } ], "text": "完整文本", # 可选,根据参数 "language": "zh", "response_time": 2.3 }

2、推理优化——faster-whisper的返回结构

faster-whisper中使用transcribe()函数一般返回两个对象:生成器和信息对象,如下

# 返回两个对象:生成器和信息对象 segments, info = model.transcribe("audio.mp3") # 📊 info对象(TranscriptionInfo) print(info.__dict__) # { # 'language': 'zh', # 检测语言 # 'language_probability': 0.98, # 语言检测置信度 # 'duration': 30.5, # 音频时长 # 'all_language_probs': { # 所有语言概率 # 'zh': 0.98, 'en': 0.01, ... # }, # 'transcription_time': 2.3, # 转录耗时(秒) # 'initial_prompt': None # 初始提示词 # } # 🔄 segments生成器(迭代获取Segment对象) for segment in segments: print(segment.__dict__) # { # 'start': 0.0, # 开始时间 # 'end': 4.0, # 结束时间 # 'text': '你好,', # 文本 # # # 可选(word_timestamps=True时) # 'words': [ # Word(start=0.0, end=0.2, word='你', probability=0.95), # Word(start=0.2, end=0.4, word='好', probability=0.92) # ] # }

3、功能增强——whisperX的返回结构

result = { # 🎯 语音活动检测结果 "segments": [ # 类似官方格式 { "start": 0.0, "end": 4.0, "text": "你好,", # 🎤 词级对齐(比官方更准) "words": [ { "word": "你", "start": 0.0, "end": 0.2, "score": 0.95, # 对齐分数 "speaker": None # 可扩展说话人分离 } ] } ], # 📝 另一种词片段格式 "word_segments": [ { "word": "你", "start": 0.0, "end": 0.2, "score": 0.95 } ], # 🗣️ 说话人分离结果(需要额外模型) "speaker_segments": [ { "start": 0.0, "end": 10.0, "speaker": "SPEAKER_00", "text": "第一段话..." } ], "language": "zh" }
工具包返回类型主要字段额外特性语言检测
openai-whisperdicttext, segments, language官方实现,功能完整返回语言代码
faster-whispertuple + Generator(segments_generator, info)速度快,内存小包含概率值
whisper.cppJSON/文本各种自定义格式可嵌入式部署需要参数指定
whisper-jaxdicttext, chunksGPU利用率高HF格式
whisperXdictsegments, word_segments词级对齐,说话人分离同官方

Read more

GitHub Copilot 教程

文章来源:https://vscode.it-docs.cn/docs/copilot/overview.html GitHub Copilot 为 Visual Studio Code 增加了多代理开发功能。规划好你的方法,然后让AI代理在项目中实现并验证代码变更。并行运行多个代理会话:本地、后台或云端。从一个中心视角管理所有角色。内联建议、内联聊天和智能行为会帮助你完成整个编码流程。 代理与代理会话 代理端到端地处理完整的编码任务。给代理一个高级任务,它会将工作拆分成步骤,编辑文件,运行终端命令,调用工具,并在遇到错误或测试失败时自我纠正。每个任务都运行在一个代理会话中,这是一个持续存在的对话,你可以跟踪、暂停、继续或交接给另一个代理。 重要 你们组织可能在VS Code中禁用了代理。请联系你的管理员以启用此功能。 从中央视图管理会话 并行运行多个代理会话,每个会话专注于不同的任务。聊天面板中的会话视图为你提供了一个统一的地方来监控所有活跃会话,无论是本地运行、后台还是云端运行。查看每次会话的状态,切换,查看文件变更,

By Ne0inhk
Flutter for OpenHarmony:Flutter 三方库 dart_openai — 激发鸿蒙应用的 AIGC (AI 大模型/ChatGPT、Deepseek等) 无限创意(适配鸿蒙

Flutter for OpenHarmony:Flutter 三方库 dart_openai — 激发鸿蒙应用的 AIGC (AI 大模型/ChatGPT、Deepseek等) 无限创意(适配鸿蒙

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net。 Flutter for OpenHarmony:Flutter 三方库 dart_openai — 激发鸿蒙应用的 AIGC (AI 大模型/ChatGPT、Deepseek等) 无限创意(适配鸿蒙 HarmonyOS Next ohos) 前言 随着生成式 AI(AIGC)浪潮席卷全球,将大语言模型(LLM)的智慧集成到移动应用中已成为大势所趋。无论是智能对话、代码生成,还是图像创作,AI 正在重塑我们的交互方式。 在 Flutter for OpenHarmony 开发中,我们如何让鸿蒙应用直接对话全球顶尖的 AI 模型?dart_openai 库通过对 OpenAI API 的完美封装,

By Ne0inhk

Git连接问题解决方案:解决‘fatal: unable to access‘报错

快速体验 1. 打开 InsCode(快马)平台 https://www.inscode.net 2. 点击'项目生成'按钮,等待项目生成完整后预览效果 输入框输入如下内容 帮我开发一个Git代理设置小工具,帮开发者解决Git连接报错问题。系统交互细节:1.提供取消代理设置功能 2.提供设置本地代理功能 3.显示当前代理配置状态 4.一键测试Git连接是否正常。注意事项:需要支持Windows/MacOS系统。 Git连接报错的常见原因 开发者在日常使用Git时,经常会遇到"fatal: unable to access"的错误提示,这通常是由于代理设置问题导致的。这个问题可能会出现在以下几种场景中: 1. 公司网络环境下使用了企业代理 2. 个人电脑上开启了VPN或代理软件 3. 网络环境切换后代理设置没有及时更新

By Ne0inhk
Open Notebook 一个开源的结合AI的记笔记软件

Open Notebook 一个开源的结合AI的记笔记软件

项目链接 Open Notebook 一个开源的、注重隐私的 Google Notebook LM 替代品! ## 一个私密、多模型、100%本地化、功能齐全的 Notebook LM 替代方案 在人工智能主导的世界里,拥有思考 🧠 和获取新知识 💡 的能力,不应是少数人的特权,也不应局限于单一供应商。 Open Notebook 使您能够: * 🔒 掌控你的数据 - 保持研究内容的私密与安全 * 🤖 选择你的 AI 模型 - 支持 16+ 家提供商,包括 OpenAI、Anthropic、Ollama、LM Studio 等 * 📚 组织多模态内容 - PDF、视频、音频、网页等 * 🎙️ 生成专业播客

By Ne0inhk