Web Worker:让前端飞起来的隐形引擎

Web Worker:让前端飞起来的隐形引擎

目录

Web Worker:让前端飞起来的隐形引擎

一、什么是 Web Worker?

1、为什么需要 web worker

2、什么是 web worker

二、基本使用方法

1、创建一个 Worker 文件(worker.js)

2、主线程引入并使用

三、实战案例:在前端处理大批量数据

1、Worker 文件(sortWorker.js)

2、主线程调用

四、Vue3 中如何优雅使用 Web Worker

1、新建 Worker 文件(worker.js)

2、在 Vue3 中封装成 Hook

3、页面组件中使用

五、注意事项

六、结语


        ZEEKLOG万粉博主、华为云云享专家、阿里云专家博主、腾讯云、支付宝合作作者,全平台博客昵称watermelo37。

        一个假装是giser的coder,做不只专注于业务逻辑的前端工程师,Java、Docker、Python、LLM均有涉猎。



---------------------------------------------------------------------

温柔地对待温柔的人,包容的三观就是最大的温柔。

---------------------------------------------------------------------

Web Worker:让前端飞起来的隐形引擎

一、什么是 Web Worker?

1、为什么需要 web worker

        JavaScript 是“单线程”的,就像一个工人(主线程)同时只能做一件事:你让他“画页面”,他就画;你让他“算数据”,他就算;你同时让他画又让他算,他会傻住(页面卡死)。

        Web Worker 的作用就相当于给 JavaScript 请了多个打工人(Worker)来做那些不需要碰 UI 的任务。

2、什么是 web worker

        Web Worker 就是浏览器为 JavaScript 提供的一种“开小号干活”的机制,帮主线程分担计算任务,避免卡顿。

        简单来说:

Web Worker = 浏览器中的子线程。

        它能让我们把耗时操作(比如复杂计算、数据处理)丢到后台执行,主线程只负责 UI 渲染和交互,两边互不打扰。

  • Worker 无法直接操作 DOM。
  • Worker 和主线程靠 postMessage 通信。
  • Worker 是完全独立的执行环境,有自己的全局作用域。

        总结来说就是能并行执行代码,不会卡住界面,并且通信机制简单的机制,常用来解决重CPU运算(算力密集型)的前端任务,比如很久以前有个可以用来计算阴阳师限定条件下最佳的御魂配置的网站,它就需要多线程进行海量数据运算,网页需要设置计算机的核心数来获取最快的计算速度,就绕不开使用 Web Worker(或其他实现前端并行计算能力的技术)。

二、基本使用方法

        来看一个最简单的 Web Worker 例子。

1、创建一个 Worker 文件(worker.js)

// worker.js self.onmessage = function(e) { console.log('子线程收到:', e.data); const result = heavyComputation(e.data); self.postMessage(result); // 把结果发回主线程 }; function heavyComputation(input) { // 模拟一个超耗时的计算 let sum = 0; for (let i = 0; i < 1e9; i++) { sum += input; } return sum; } 

2、主线程引入并使用

const worker = new Worker('worker.js'); worker.postMessage(10); // 给子线程发消息 worker.onmessage = function(e) { console.log('主线程收到子线程返回:', e.data); }; 

        主线程继续流畅渲染,不会因为计算被卡住。需注意,worker文件必须是单独的js文件,且子线程无法操作DOM,只能做纯计算或数据处理。

三、实战案例:在前端处理大批量数据

        假设你的页面要处理10万条数据排序,如果直接在主线程排序,会严重卡顿。我们可以用 Worker 来优化。

1、Worker 文件(sortWorker.js)

// sortWorker.js self.onmessage = function(e) { const sorted = e.data.sort((a, b) => a - b); self.postMessage(sorted); }; 

2、主线程调用

const worker = new Worker('sortWorker.js'); // 生成10万条数据 const bigArray = Array.from({ length: 100000 }, () => Math.random() * 100000); worker.postMessage(bigArray); worker.onmessage = (e) => { console.log('排序完成,结果是:', e.data); }; // 同时,页面可以继续响应用户操作,不卡顿! 

四、Vue3 中如何优雅使用 Web Worker

        在 Vue3 项目中,我们可以很自然地用 Worker,比如封装成组合式函数(Composition API),如下案例,使用体验和普通函数几乎一样,而且完全不卡页面。

1、新建 Worker 文件(worker.js)

// worker.js self.onmessage = function(e) { const result = e.data * 2; self.postMessage(result); }; 

2、在 Vue3 中封装成 Hook

// useWorker.js import { ref, onUnmounted } from 'vue'; export function useWorker(workerPath) { const result = ref(null); const worker = new Worker(workerPath); const post = (data) => { worker.postMessage(data); }; worker.onmessage = (e) => { result.value = e.data; }; onUnmounted(() => { worker.terminate(); // 页面销毁时记得关闭 Worker }); return { post, result }; } 

3、页面组件中使用

<template> <div> <button @click="doubleValue">计算2倍</button> <p>结果:{{ result }}</p> </div> </template> <script setup> import { useWorker } from './useWorker'; const { post, result } = useWorker(new URL('./worker.js', import.meta.url).href); function doubleValue() { post(5); // 给子线程发送 5,子线程返回 10 } </script> 

五、注意事项

        如果数据特别大,可以用 Transferable Objects 或 SharedArrayBuffer 优化传输性能。

注意点说明
DOM 操作Worker 无法操作 DOM。只能处理数据,UI更新要回到主线程。
数据传输postMessage 实际上是数据拷贝,所以大对象传输有性能损耗。
销毁使用完记得调用 worker.terminate(),否则会内存泄漏。
同源限制Worker 脚本受同源策略保护。

六、结语

        Web Worker 是前端多线程开发的基石,提升了复杂应用的性能上限,它的使用非常简单,通过 postMessage 和 onmessage 双向通信即可,在实际业务中,如数据处理、音视频转码、大型图表绘制等场景,Worker 能显著优化用户体验。如果你的项目中存在明显的主线程卡顿,不妨试试引入 Web Worker,给用户带来丝滑流畅的体验感。

        只有锻炼思维才能可持续地解决问题,只有思维才是真正值得学习和分享的核心要素。如果这篇博客能给您带来一点帮助,麻烦您点个赞支持一下,还可以收藏起来以备不时之需,有疑问和错误欢迎在评论区指出~

        其他热门文章,请关注:

        极致的灵活度满足工程美学:用Vue Flow绘制一个完美流程图

        你真的会使用Vue3的onMounted钩子函数吗?Vue3中onMounted的用法详解

        DeepSeek:全栈开发者视角下的AI革命者

        通过array.filter()实现数组的数据筛选、数据清洗和链式调用

        通过Array.sort() 实现多字段排序、排序稳定性、随机排序洗牌算法、优化排序性能

        TreeSize:免费的磁盘清理与管理神器,解决C盘爆满的燃眉之急

        通过MongoDB Atlas 实现语义搜索与 RAG——迈向AI的搜索机制

        深入理解 JavaScript 中的 Array.find() 方法:原理、性能优势与实用案例详解

        el-table实现动态数据的实时排序,一篇文章讲清楚elementui的表格排序功能

        前端实战:基于Vue3与免费满血版DeepSeek实现无限滚动+懒加载+瀑布流模块及优化策略

        MutationObserver详解+案例——深入理解 JavaScript 中的 MutationObserver

        JavaScript中通过array.map()实现数据转换、创建派生数组、异步数据流处理、DOM操作等

        高效工作流:用Mermaid绘制你的专属流程图;如何在Vue3中导入mermaid绘制流程图

        干货含源码!如何用Java后端操作Docker(命令行篇)

        在线编程实现!如何在Java后端通过DockerClient操作Docker生成python环境

        Dockerfile全面指南:从基础到进阶,掌握容器化构建的核心工具

Read more

AI 大模型应用后端开发,2026 年最新零基础入门路线,少走 3 年弯路

导语:别让「算法陷阱」,毁掉你的AI入行路 2026年,AI大模型的浪潮已经从技术圈彻底席卷至全行业,92%的科技企业已完成大模型架构的业务嵌入,大模型应用后端开发岗位的市场需求较2023年暴增340%,20K起步的校招薪资、50W+的社招年薪早已成为行业常态。 但我接触过上千名想入行的零基础学习者,90%的人都倒在了入门的路上,白白浪费了1-3年的时间,核心原因只有一个:从一开始就走错了路,掉进了「上来就学算法」的新手致命陷阱里。 很多人天然觉得,做AI大模型开发,就得先啃高等数学、线性代数、概率论,就得手撕Transformer源码、搞懂反向传播、学预训练和模型微调。结果学了半年,连一个最简单的AI对话接口都写不出来,更别说做能上线的企业级产品,最后只能自我怀疑「我是不是不是这块料」,直接放弃。 今天这篇文章,我结合2026年最新的行业招聘标准、一线大厂技术落地实践、开源社区技术演进趋势,给你一套零基础可复制、零算法门槛、少走3年弯路的大模型应用后端开发入门路线。 全文会严格区分「必学/选学」内容,拆解最科学的技术栈学习顺序,给你精确到每周的3个月落地学习计划,只要你会用

大语言模型LLM解决AI幻觉方法的深度分析

大语言模型LLM解决AI幻觉方法的深度分析

LLM解决AI幻觉方法的深度分析 引言:AI幻觉的定义与研究背景 AI 幻觉作为大型语言模型(LLM)部署的核心挑战,其学术价值体现于对模型"概率生成天性"的机制探索(如 OpenAI 2025 年论文《Why Language Models Hallucinate》揭示的底层逻辑),产业意义则关乎医疗、金融等关键领域的安全应用[1]。当前研究显示,即使开发团队对 LLM 内部运作的理解仍局限于 10%~20%(Anthropic 团队研究),但该现象已引发信息污染、信任危机等风险,同时在科学发现等领域展现创造力价值,成为 AI 可靠性研究的焦点[2][3][4]。 AI 幻觉的权威分类: * 事实性幻觉:生成内容与客观事实冲突,例如错误声称"蜂蜜可帮助糖尿病患者稳定血糖"[2]

百度搜索AI开放计划:助力开发者通过MCP Server连接用户和应用

百度搜索AI开放计划:助力开发者通过MCP Server连接用户和应用

百度搜索AI开放计划:助力开发者通过MCP Server连接用户和应用 一、背景 2025年4月25日,百度在Create开发者大会上发布了全新的AI开放计划。这一计划的核心目的是实现用户和AI应用、MCP Server的高效链接,提供更流畅的互动体验,推动技术服务闭环。百度通过免费、开放的方式邀请全球开发者共同打造AI应用与服务,提供流量支持和商业化路径,为开发者创造更多机会。对于用户来说,可以快速找到满足需求的AI应用,快速完成任务闭环。 打开百度搜索开放平台:https://sai.baidu.com,我们可以看到平台主要分为三大板块:应用与MCP广场,以及帮助文档中心。其中,MCP广场支持智能搜索与推荐功能,让我们一起来详细了解。 二、百度搜索打造更懂开发者的MCP Server检索工具 近期,MCP生态迎来了大爆发,海量的MCP Server汇聚在一起。要找到一款真正解决问题的MCP Server,需要筛选大量信息才能做出决策。然而,我发现在Create开发者大会上发布的MCP广场拥有深度搜索功能,这对开发者来说是一个巨大的便利。 百度搜索通过全新的AI开放计

【AI实战教程】Nanobot实战教程:基于vLLM部署的智能QQ聊天机器人

【AI实战教程】Nanobot实战教程:基于vLLM部署的智能QQ聊天机器人

🔎大家好,我是Sonhhxg_柒,希望你看完之后,能对你有所帮助,不足请指正!共同学习交流 📝个人主页-Sonhhxg_柒的博客_ZEEKLOG博客 📃 🎁欢迎各位→点赞👍 + 收藏⭐️ + 留言📝 📣系列专栏 - 机器学习【ML】 自然语言处理【NLP】  深度学习【DL】  🖍foreword ✔说明⇢本人讲解主要包括Python、机器学习(ML)、深度学习(DL)、自然语言处理(NLP)等内容。 如果你对这个系列感兴趣的话,可以关注订阅哟👋 一、前言 在大模型时代,拥有一个个人专属的AI助手已经不再是遥不可及的梦想。今天,我将为大家带来一份详尽的实战教程,教你如何使用Nanobot构建一个基于vLLM部署的智能QQ聊天机器人。 Nanobot是由香港大学数据科学研究所开发的一款超轻量级AI智能体,灵感来自OpenClaw。它的设计理念是"让AI触手可及",通过极简的代码实现强大的功能。Nanobot的关键特性包括: