B站PC端web自动开启字幕脚本(2026新版适配)

B站自动字幕用户脚本:快捷键开关 + 自动开启字幕(2026新版适配)

作者:Apixus
更新日期:2026年3月5日
项目地址:GitHub仓库

一、脚本介绍

你是否经常在B站看视频时反复手动开启字幕?是否希望切换视频时字幕能自动开启?
这个用户脚本就是为了解决这些问题而开发的。

B站自动字幕脚本 提供了以下功能:

  • 🎯 快捷键控制:按 C 键快速开启或关闭字幕
  • 🔄 自动开启:切换分P、点击推荐视频时自动打开字幕
  • 🆕  2026新版适配:专为B站最新版播放器优化
  • ⚡ 性能优化:智能监听,告别卡顿轮询
  • 🛡️ 防冲突:自动识别输入框,避免误触

二、适用页面

  • 普通视频页:https://www.bilibili.com/video/*
  • 播放列表页:https://www.bilibili.com/list/*

支持普通视频页、番剧页、播放列表页等常见场景。


三、安装步骤

1. 安装用户脚本管理器

推荐使用 Tampermonkey 或 Violentmonkey

2. 安装脚本

点击下方链接安装:

👉 安装脚本

安装后,脚本会在符合条件的B站页面自动运行。


四、使用说明

快捷键开启字幕

  • 在视频页面按 C 键即可快速开启或关闭字幕。
  • 脚本会自动检测是否在输入框中,避免冲突。

切换视频自动开启

  • 切换视频时,字幕会自动开启,无需手动操作。

首次进入自动开启

  • 首次打开视频页面时,字幕会在页面加载完成后自动开启。

五、常见问题

Q1:按C键没反应?

  • 请确保焦点不在输入框或搜索框中。
  • 检查是否已安装脚本并启用。
  • 检测是否开启开发人员模式

Q2:某些页面不生效?

  • 脚本仅匹配 www.bilibili.com/video/ 和 www.bilibili.com/list/ 开头的页面。
  • 如果是B站国际版或其他域名,需自行修改 @match 规则。

Q3:字幕菜单打不开?

  • B站播放器结构可能更新,欢迎在 Issues 中反馈。

Q4:不会安装脚本

Q5:github项目打不开?


六、更新日志

v2.0(2026-03-05)
✨ 新增:快捷键支持关闭字幕(原仅支持开启)
🚀 优化:重写URL监听机制,使用MutationObserver替代轮询,性能大幅提升
🚀 优化:新增智能元素等待函数,稳定性更强
🐛 修复:增加SELECT和富文本编辑器的输入检测,避免更多冲突场景
🐛 修复:快捷键现在正确阻止默认浏览器行为(如页面查找)
🔧 重构:代码模块化,提取CONFIG/SELECTORS配置,便于维护

v1.0(2025-09-20)

  • 首次发布
  • 适配B站2025年新版播放器
  • 实现快捷键和自动开启功能

七、开源贡献

本项目开源在 GitHub,欢迎提交 Issue 或 Pull Request:


八、许可证

MIT License,可自由使用、修改和分发。


如果这个脚本对你有帮助,欢迎在 GitHub 点个 ⭐ 支持一下!
祝你使用愉快,享受无字幕打扰的观影体验🎬

Read more

学生党申请github教育优惠到获取github-copilot pro一条龙教程

学生党申请github教育优惠到获取github-copilot pro一条龙教程

25年9月最新 申请GitHub教育优惠 到 获取GitHub co-pilot pro 一条龙教程(需要自备edu教育邮箱) 2025.9.4 博主亲测有效,可申请到两年教育优惠,无论您是否为在校学生,只要有一个可用的教育邮箱即可申请 by ZEEKLOG:Rem丶昕 注意:本教程的所有填写全部用英文! 一、前期准备 1. 需要自备自己学校的 edu 教育邮箱,例如博主的教育邮箱格式为 [email protected],准备的 edu 邮箱得搜索到对应的学校 2. 想申请教育邮箱的GitHub账号不能是新号,至少注册时间3天以上 二、绑定 edu 教育邮箱 2.1 在GitHub设置中添加自己的教育邮箱 登录 GitHub,点击右上方头像,在下拉列表中选 Settings

LLama-Factory vs. 传统微调:效率与成本的深度对比

LLama-Factory vs. 传统微调:效率与成本的深度对比 当技术团队面临大语言模型微调任务时,往往陷入工具选择的困境。传统的手工编码微调方法曾长期主导这一领域,但新兴的LLama-Factory等自动化工具正在改写游戏规则。本文将从实际工程角度,剖析两种方案在资源配置、时间消耗和产出质量三个维度的真实差异。 1. 核心效率指标对比 在评估微调工具时,我们主要关注三个关键效率指标:配置时间、训练周期和迭代速度。传统微调通常需要工程师手动处理数据预处理、超参数调整和训练监控等环节,而LLama-Factory通过模块化设计将这些步骤标准化。 以微调Llama3-8B模型为例,我们实测得到以下数据: 环节传统方法耗时LLama-Factory耗时效率提升环境配置4-6小时0.5小时8-12倍数据预处理3-5小时0.5小时6-10倍训练周期(3轮)18-24小时8-12小时2-3倍超参数优化手动调整自动推荐N/A 实际测试基于NVIDIA A4000 GPU,数据集规模为50,000条中文指令数据 LLama-Factory的Web界面集成了以下自动化功能:

llama.cpp加载多模态gguf模型

llama.cpp预编译包还不支持cuda12.6 llama.cpp的编译,也有各种坑 llama.cpp.python的也需要编译 llama.cpp命令行加载多模态模型 llama-mtmd-cli -m Qwen2.5-VL-3B-Instruct-q8_0.gguf --mmproj Qwen2.5-VL-3B-Instruct-mmproj-f16.gguf -p "Describe this image." --image ./car-1.jpg **模型主gguf文件要和mmporj文件从一个库里下载,否则会有兼容问题,建议从ggml的官方库里下载 Multimodal GGUFs官方库 llama.cpp.python加载多模态模型 看官方文档 要使用LlamaChatHandler类,官方已经写好了不少多模态模型的加载类,比如qwen2.5vl的写法: from llama_cpp import Llama

【Copilot配置】—— copilot-instructions.md vs AGENTS.md vs .instructions.md三种指令文件解析与配置

【Copilot配置】—— copilot-instructions.md vs AGENTS.md vs .instructions.md三种指令文件解析与配置

Copilot 指令文件全解析:copilot-instructions.md vs AGENTS.md vs .instructions.md 作为常年和 VS Code 打交道的研发,最近在折腾 Copilot Agent 时,我发现很多同学和我一样,被 .github/copilot-instructions.md、AGENTS.md 和 .instructions.md 这三个文件绕晕了。 明明都是给 Copilot 写的 “指令”,为什么要分三个文件?它们的生效范围有啥区别?什么时候该用哪一个? 带着这些疑问,我翻遍了官方文档,又在自己的 AI Agent 项目里反复实测,终于把这三者的关系理得清清楚楚。这篇文章就用最直白的语言,结合实战配置,帮你彻底搞懂 Copilot 指令文件的使用逻辑。 一、先搞懂核心: