安装whisper

 一、国产系统部署(麒麟)

1.先确认 Python 环境:

bash

# 查看 Python 版本(需要 3.8+) python3 --version # 查看 pip3 是否已安装 pip3 --version

如果显示 -bash: pip3: command not found,先安装 pip3:

bash

sudo yum install -y python3-pip

2 升级 Python 3.8+

  1.检查系统架构(重要)

首先确认你的系统架构,这会影响后续下载哪个源码包:

bash

uname -m

输出可能是:

  • x86_64:Intel/AMD 64位架构
  • aarch64:ARM 64位架构(飞腾、鲲鹏处理器)

本系统是x86_64

2.安装编译依赖下载 Python 3.8 源码解压并编译安装

# 1. 安装编译依赖-说明:这些依赖确保 Python 编译后能正常使用 pip、SSL、压缩等功能。 sudo yum install -y gcc make zlib-devel bzip2-devel openssl-devel ncurses-devel sqlite-devel readline-devel tk-devel libffi-devel xz-devel wget # 2. 下载源码 cd /usr/local/src sudo wget https://www.python.org/ftp/python/3.8.18/Python-3.8.18.tgz # 3. 解压并编译 sudo tar -xzf Python-3.8.18.tgz cd Python-3.8.18 sudo ./configure --prefix=/usr/local/python3.8 --enable-optimizations sudo make -j$(nproc) sudo make altinstall # 4. 创建软链接 sudo ln -sf /usr/local/python3.8/bin/python3.8 /usr/bin/python3.8 sudo ln -sf /usr/local/python3.8/bin/pip3.8 /usr/bin/pip3.8 # 5. 验证 python3.8 --version
为什么用 altinstall 这样安装后,Python 3.8 的可执行文件是 /usr/local/python3.8/bin/python3.8,不会覆盖系统自带的 python3(可能是 3.7),避免破坏系统工具。
 ⚠️ 注意:切换默认 python3 可能会影响依赖 Python 3.7 的系统工具(如 yum)。建议保留系统默认,使用 python3.8 命令专门运行 FunASR。

3. 安装依赖

  安装 ffmpeg(解决音频处理问题)

# 安装 ffmpeg(解决音频处理问题) yum install ffmpeg -y
 # 使用 python3.8 对应的 pip 配置清华源 pip3.8 config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple 

安装依赖。执行以下命令:

bash

# 安装基础依赖 pip3.8 install numpy # 安装 PyTorch(Whisper 依赖) pip3.8 install torch # 安装 Whisper pip3.8 install openai-whisper # 安装繁简转换工具(可选) pip3.8 install opencc-python-reimplemented

如果你希望快速安装所有依赖,可以一次性安装:

bash

pip3.8 install numpy torch openai-whisper opencc-python-reimplemented

注意:

  • Whisper medium 模型大约需要 1.5GB 磁盘空间,首次运行时会自动下载

建议使用虚拟环境避免包冲突:bash

python3.8 -m venv whisper-env source whisper-env/bin/activate # 激活虚拟环境 pip3.8 install numpy torch openai-whisper opencc-python-reimplemented 完成后退出环境 deactivate

4.安装 whisper

 # 使用 python3.8 安装 python3.8 -m pip install openai-whisper

bash

5. 创建服务

# 创建服务目录
mkdir -p ~/whisper-server
cd ~/whisper-server

bash

cat > whisper_https.py << 'EOF' #!/usr/bin/env python3 import json import tempfile import os from http.server import HTTPServer, BaseHTTPRequestHandler import cgi import sys print("正在加载 Whisper...") sys.stdout.flush() try: import whisper print("Whisper 导入成功") print("正在加载模型...") model = whisper.load_model("base") print("模型加载完成!") except Exception as e: print(f"加载失败: {e}") sys.exit(1) class Handler(BaseHTTPRequestHandler): def do_GET(self): if self.path == '/health': self.send_response(200) self.send_header('Content-type', 'application/json') self.end_headers() self.wfile.write(json.dumps({"status": "ok"}).encode()) else: self.send_response(404) self.end_headers() def do_POST(self): if self.path == '/recognition': try: form = cgi.FieldStorage( fp=self.rfile, headers=self.headers, environ={'REQUEST_METHOD': 'POST'} ) if 'audio' not in form: self.send_error(400, "No audio file") return file_item = form['audio'] with tempfile.NamedTemporaryFile(delete=False, suffix=".wav") as tmp: tmp.write(file_item.file.read()) tmp_path = tmp.name # 识别 result = model.transcribe(tmp_path, language="zh") os.unlink(tmp_path) self.send_response(200) self.send_header('Content-type', 'application/json') self.end_headers() response = json.dumps({"code": 0, "text": result["text"]}) self.wfile.write(response.encode()) except Exception as e: self.send_response(500) self.end_headers() self.wfile.write(json.dumps({"code": 1, "msg": str(e)}).encode()) else: self.send_response(404) self.end_headers() if __name__ == "__main__": port = 8000 server = HTTPServer(('0.0.0.0', port), Handler) print(f"✅ HTTP 服务启动成功!") print(f"📍 地址: http://0.0.0.0:{port}") print(f"✅ 健康检查: http://localhost:{port}/health") print(f"✅ 识别接口: POST http://localhost:{port}/recognition") print("\n按 Ctrl+C 停止服务") sys.stdout.flush() server.serve_forever() EOF python3 whisper_https.py

Read more

【独家揭秘】大厂都在用的VSCode Copilot文档自动化流程(附配置模板)

第一章:VSCode Copilot文档自动化的核心价值 VSCode Copilot 作为一款基于人工智能的代码辅助工具,不仅在编码效率上带来显著提升,更在文档自动化方面展现出深远价值。通过深度集成于开发流程,Copilot 能够根据代码上下文自动生成注释、API 文档甚至使用示例,极大减轻开发者撰写技术文档的负担。 智能注释生成 Copilot 可识别函数逻辑并自动生成符合规范的注释。例如,在编写一个 JavaScript 函数时: /** * 计算两个数的和 * @param {number} a - 第一个加数 * @param {number} b - 第二个加数 * @returns {number} 返回两数之和 */ function add(a, b) { return a + b; } 上述注释由 Copilot 根据函数体自动推断生成,开发者只需稍作调整即可用于正式文档。 提升团队协作效率 文档自动化减少了因人为疏忽导致的文档缺失问题。团队成员可依赖统一风格的自动生成文档快速理解模块功能。以下为常见收益点:

2026 编程范式转移:深度拆解 Vibe Coding。从 GitHub Copilot 到自然语言架构,开发者如何避免被首批淘汰?

2026 编程范式转移:深度拆解 Vibe Coding。从 GitHub Copilot 到自然语言架构,开发者如何避免被首批淘汰?

前言:从“写代码”到“调氛围” 站在 2026 年的时间点回看,2024 年的 AI 编程还处于“自动补全”的石器时代。随着 Reasoning Models(推理模型)的成熟,我们正在经历软件工程史上最大的一次范式转移——Vibe Coding(氛围编程)。 它标志着开发者的核心竞争力从“语法实现能力”向“意图对齐能力”彻底迁移。如果说低代码(Low-Code)是预设的组件拼装,那么 Vibe Coding 就是基于自然语言的“即时编译”。本文将深度拆解这一趋势,并探讨在“代码生成成本趋向于零”的时代,专业开发者该如何构建自己的护城河。 一、 什么是 Vibe Coding?一场“意图驱动”的革命 Vibe Coding(

5大AI代码生成工具实测:GitHub Copilot竟输给国产黑马

5大AI代码生成工具实测:GitHub Copilot竟输给国产黑马

AI代码生成工具在软件测试领域的崛起 随着人工智能技术的飞速发展,AI代码生成工具已成为软件测试从业者的重要助手。这些工具不仅能自动生成单元测试、集成测试脚本,还能提升测试覆盖率和效率,减少人为错误。本次实测聚焦于5款主流工具:GitHub Copilot、Tabnine、Kite、DeepSeek-Coder(代表国产工具),以及Amazon CodeWhisperer。我们针对软件测试场景设计实验,从专业性、准确性和实用性角度进行深度评测。实测结果令人意外:长期被视为行业标杆的GitHub Copilot在多项测试指标中落后于国产黑马DeepSeek-Coder。本文将详细解析实测过程、数据对比,以及对测试工作的实际影响。 一、实测工具概览:五大AI助手简介 在深入实测前,先简要介绍参评的五款工具及其在测试领域的定位: 1. GitHub Copilot:由GitHub和OpenAI联合开发,支持多种语言(如Python、Java),以代码补全和函数生成为核心功能。在测试中常用于生成单元测试框架(如JUnit或Pytest脚本)。 2. Tabnine:基于深度学习模型

AIGC个性化与定制化内容生成:技术与应用的前沿探索

AIGC个性化与定制化内容生成:技术与应用的前沿探索

目录 引言 第一部分:个性化与定制化内容生成的技术原理 1.1 什么是个性化与定制化内容生成? 1.2 生成式AI在个性化内容生成中的作用 1.3 数据驱动的个性化内容生成 第二部分:个性化与定制化内容生成的应用领域 2.1 新闻与媒体行业 2.2 电子商务与广告 2.3 教育行业 2.4 娱乐与创意产业 第三部分:AIGC个性化与定制化内容生成的技术实现 3.1 推荐系统与个性化推送算法 3.2 基于生成式模型的个性化内容生成 3.3 情感分析与定制化内容的情境化 结语 引言 随着人工智能技术的迅猛发展,生成式AI(AIGC,Artificial Intelligence Generated Content)逐渐成为各行各业的热门话题,特别是在内容创作和个性化推荐方面。个性化和定制化内容生成作为AIGC技术的重要应用场景之一,