AI 智能答题助手 (AI Study Copilot) —— 你的下一代学习辅助神器

AI 智能答题助手 (AI Study Copilot) —— 你的下一代学习辅助神器

⚡️ AI 智能答题助手 (AI Study Copilot) —— 你的下一代学习辅助神器

一键抓取 · 深度解析 · 学习更轻松

功能特性安装指南使用说明赞助与支持免责声明


项目地址:点击访问
插件官网:点击访问

在这里插入图片描述

📖 项目介绍

AI 智能答题助手 (AI Study Copilot) 是一款专为在线学习设计的浏览器扩展。V1.2 版本迎来重大升级,打破模型限制,不仅内置 DeepSeek 智能引擎,更开放支持 OpenAI本地大模型 (LM Studio)

不同于传统的题库匹配软件,本插件不依赖静态题库,而是通过实时 AI 分析,能够处理全新的题目、变种题以及复杂的阅读理解题。我们秉持“技术辅助学习”的理念,致力于将繁琐的资料检索过程自动化。

✨ 功能特性

1. ♾️ 模型源自由切换 (New)

  • 本地模型无限刷:支持连接本地 LM Studio,数据不上云,零成本、无限制、隐私更安全!
  • 自定义 API:兼容 OpenAI 及任意第三方接口 (OneAPI/NewAPI),想用什么模型由你决定。
  • 内置 DeepSeek:无需配置,开箱即用(VIP 尊享每日 300 次极速解析)。

2. 🆔 账户权益保障 (New)

  • ID 备份与恢复:全新上线账户管理面板,支持查看与备份专属账户 ID。
  • 权益不丢失:无论是更换电脑还是重装系统,只需填入旧 ID,会员权益一键恢复。

3. 🛡️ 静默抓包引擎

  • 无感抓取:采用全新的旁路监听技术,自动拦截网页题目数据(AJAX/Fetch)。
  • 更强兼容:完美支持跨域 Iframe 及各种复杂的动态加载题库,抓包更稳、更隐蔽。

4. 🔍 HTML 深度扫描 (VIP)

  • 针对没有数据接口的老旧静态网页,提供 DOM 深度扫描 模式。
  • 直接从网页可见区域提取题目文本,支持 OCR 无法处理的复杂排版。

5. 👆 极简交互体验

  • 数据看板:新增 AI 生成耗时统计与响应时间显示,精准把控答题节奏。
  • 智能高亮:自动识别题型([单选]、[多选]、[填空]),并使用彩色标签高亮显示。

美观模态框:全新设计的交互弹窗,视觉更统一,操作更丝滑。

在这里插入图片描述

📥 安装指南

应用商店安装(推荐,自动更新)

平台下载链接说明
Chrome点击前往 Chrome Web Store谷歌浏览器专用
Firefox点击前往 Firefox Add-ons火狐浏览器专用
移动版点击前往 Firefox Add-ons for AndriodAndriod手机/平板版专用(火狐浏览器-移动版)

插件文件离线安装

平台下载链接说明
Chrome点击下载离线插件谷歌浏览器&Edge浏览器&360安全浏览器专用
Firefox点击下载离线插件火狐浏览器专用(支持Andriod手机/平板端火狐浏览器)

🚀 使用说明

  1. 进入题库页面:打开你需要学习的网课或题库网站。
    • 此时插件会自动监听题目数据。
    • 若捕获成功,右下角悬浮球会出现红点数字提醒。
  2. 查看解析
    • 点击悬浮球打开面板。
    • 勾选需要解析的题目数据包。
  3. 配置模型 (可选)
    • 如果没有抓到包,在面板中开启 “HTML 深度扫描” 开关。
    • 点击列表上方的 “深度扫描” 按钮。

深度扫描 (针对无接口页面)

在这里插入图片描述

打开设置面板,点击AI自定义模型源,可选择 “内置模型”“DeepSeek API”“OpenAI”“本地模型”

点击 “🚀 发送选中数据给 AI”


自动捕获


⚠️ 免责声明

在使用本软件前,请务必仔细阅读以下条款:

  1. 辅助学习工具:本软件开发的初衷是辅助用户进行知识检索和解析,帮助理解知识点。严禁将本软件用于任何形式的违反法律法规、违反校规校纪或第三方平台规则的行为(包括但不限于考试作弊)。
  2. 技术中立:开发者仅提供数据处理与 AI 接口调用的技术工具。用户利用本软件在第三方平台进行的任何操作,其后果完全由用户自行承担。
  3. 数据安全:本软件仅在用户主动操作时处理题目文本数据,绝不收集用户的账号密码、Cookie 或个人隐私信息。
  4. 合规使用:请勿利用本软件批量抓取他人拥有知识产权的题库数据用于商业牟利。

🛠️ 技术栈

  • 前端核心: Vanilla JavaScript (ES6+), HTML5, CSS3
  • 扩展框架: Chrome Extension Manifest V3
  • 通信机制: chrome.runtime, window.postMessage, MessageChannel
  • 网络拦截: XMLHttpRequest Proxy, Fetch Proxy (Silent Bypass)
  • AI 接口: Multi-Provider Support (Built-in Proxy / OpenAI / LM Studio)

📄 License

MIT License © 2026 Hx0 Team

Read more

5步快速搭建:OpenAI Whisper本地语音转文字终极指南

5步快速搭建:OpenAI Whisper本地语音转文字终极指南 【免费下载链接】whisper-base.en 项目地址: https://ai.gitcode.com/hf_mirrors/openai/whisper-base.en 还在为语音转文字需求而烦恼吗?想要在本地设备上实现专业级的语音识别功能吗?今天我们将完整揭秘如何通过OpenAI Whisper模型,在个人电脑上搭建稳定高效的语音转文字系统。无论你是技术开发者还是AI爱好者,这套方案都能让你在30分钟内完成部署!🚀 为什么选择本地部署Whisper? 传统语音识别服务往往受限于网络环境和隐私顾虑,而本地化部署的Whisper模型提供了完美的解决方案。它不仅支持60多种语言的实时转录,还能在完全离线的环境下运行,确保你的音频数据绝对安全。 核心优势对比: | 特性 | 云端服务 | Whisper本地部署 | |------|----------|-----------------| | 数据隐私 | 数据上传云端 | 完全本地处理 | | 网络依赖 | 必须联网 | 完全离线运行 | | 成本控制 |

llama.cpp Server 引入路由模式:多模型热切换与进程隔离机制详解

llama.cpp Server 引入路由模式:多模型热切换与进程隔离机制详解

llama.cpp server在 2025年12月11日发布的版本中正式引入了 router mode(路由模式),如果你习惯了 Ollama 那种处理多模型的方式,那这次 llama.cpp 的更新基本就是对标这个功能去的,而且它在架构上更进了一步。 路由模式的核心机制 简单来说,router mode 就是一个内嵌在 llama.cpp 里的模型管理器。 以前跑 server,启动时需要指定一个模型,服务就跟这个模型绑定了。要想换模型?要么停服务、改参数、重启,要么直接启动多个服务,而现在的路由模式可以动态加载多个模型、模型用完后还可以即时卸载,并且在不同模型间毫秒级切换,最主要的是全过程无需重启服务,这样我们选择一个端口就可以了。 这里有个技术细节要注意:它的实现是多进程的(Each model runs in its own process)。也就是说模型之间实现了进程级隔离,某个模型如果跑崩了,不会把整个服务带崩,其他模型还能正常响应。

大香蕉 (Banana Pro) 企业级落地白皮书:如何用 0.18 元打破 AIGC 的“商业不可能三角”?

摘要 2026 年,AIGC 从“玩具”走向“工具”。企业主面临着一个新的“不可能三角”:高质量(Quality)、低成本(Cost)、高速度(Speed)。本文将拆解 大香蕉 (Banana Pro) 模型如何凭借谷歌 Gemini 3 的底层能力与 xingjiabiapi.org 的架构优化,在电商、内容矩阵、品牌设计三大场景中实现商业闭环。 一、 核心痛点:企业为什么不敢大规模用 AI? 在与数百家企业 CTO 和运营总监交流后,我们发现 AI 生图在企业级落地中存在三大拦路虎: 1. 成本不可控:Midjourney 等主流工具按月订阅或高昂的单次计费,导致大规模(日产万张)生成时成本飙升。 2. 交付慢,SLA

Stable Diffusion XL 1.0高性能推理:灵感画廊FP16混合精度部署实测

Stable Diffusion XL 1.0高性能推理:灵感画廊FP16混合精度部署实测 1. 项目概述:当艺术遇见技术 想象一下,你有一个专属的数字画室,只需要用文字描述心中的画面,AI就能在几秒钟内为你生成高清艺术作品。这不再是科幻电影的场景,而是"灵感画廊"带给我们的真实体验。 灵感画廊是一个基于Stable Diffusion XL 1.0打造的沉浸式艺术创作工具。它不像传统的AI绘画软件那样充满冰冷的技术感,而是营造出一种艺术沙龙般的创作氛围。整个界面采用宣纸色调和极简设计,让你感觉不是在操作软件,而是在进行一场艺术创作。 这个项目的核心价值在于:用最先进的技术,提供最优雅的创作体验。它把复杂的AI模型封装在简洁的界面背后,让你专注于创意本身,而不是技术细节。 2. 技术架构解析 2.1 核心模型选择 灵感画廊选择了Stable Diffusion XL 1.0作为基础模型,这是目前最先进的文生图模型之一。相比之前的版本,SDXL 1.0在以下几个方面有显著提升: