深入理解前端防抖(Debounce)与节流(Throttle):原理、区别与实战示例

深入理解前端防抖(Debounce)与节流(Throttle):原理、区别与实战示例

深入理解前端防抖(Debounce)与节流(Throttle):原理、区别与实战示例

📌 引言

在前端开发中,我们经常需要处理高频事件(如输入框输入、滚动、窗口调整大小等)。如果不加限制,浏览器会频繁触发回调函数,导致性能问题,甚至页面卡顿

防抖(Debounce)节流(Throttle) 是两种优化方案,可以有效控制事件触发的频率,提高应用的性能和用户体验。

本篇文章将详细解析 防抖和节流的原理、适用场景及代码实现,帮助你更好地优化前端应用。


1. 什么是防抖(Debounce)?

📝 概念

防抖是一种在事件触发后延迟执行的技术,如果在延迟期间事件被再次触发,计时器会重置,重新计算延迟时间。

核心思想短时间内多次触发,只执行最后一次

📌 适用场景

  • 搜索框输入(防止用户每次输入都发送请求)
  • 窗口调整大小(resize)(防止短时间内多次触发计算)
  • 表单输入验证(用户停止输入后再进行验证)

✅ 代码实现

functiondebounce(fn, delay =300){let timer;returnfunction(...args){if(timer)clearTimeout(timer);// 清除之前的定时器 timer =setTimeout(()=>fn.apply(this, args), delay);};}

示例:输入框防抖

<inputtype="text"id="search"placeholder="请输入内容"><script>const input = document.getElementById('search'); input.addEventListener('input',debounce((e)=>{ console.log('搜索内容:', e.target.value);},500));</script>
效果:用户输入停止 500ms 后,才触发 console.log

2. 什么是节流(Throttle)?

📝 概念

节流是一种限定函数执行频率的技术,即在一定时间间隔内,函数最多执行一次,即使事件被频繁触发。

核心思想高频触发,固定间隔执行

📌 适用场景

  • 滚动事件(scroll)(如懒加载、页面滚动监听)
  • 鼠标移动(mousemove)(防止触发过多计算)
  • 按钮点击(click)(防止用户疯狂点击)

✅ 代码实现

functionthrottle(fn, interval =300){let lastTime =0;returnfunction(...args){const now = Date.now();if(now - lastTime >= interval){fn.apply(this, args); lastTime = now;}};}

示例:滚动监听

<divstyle="height: 2000px;"></div><script> window.addEventListener('scroll',throttle(()=>{ console.log('滚动中...',newDate().toLocaleTimeString());},1000));</script>
效果:无论滚动多快,scroll 事件每秒最多执行一次

3. 防抖 vs. 节流:有什么区别?

防抖(Debounce)节流(Throttle)
触发方式事件触发后延迟执行事件触发后间隔执行
特性短时间连续触发,只执行最后一次固定时间间隔内最多执行一次
适用场景输入框输入、搜索框、表单验证滚动、鼠标移动、按钮点击
优势避免无效调用,减少资源消耗保证高频事件可执行,提高流畅度
实现方式setTimeout 延迟执行Date.now() 控制执行间隔

📌 总结

  • 如果你想等用户停止操作后再执行任务,使用防抖(Debounce)
  • 如果你希望控制函数执行的频率,使用节流(Throttle)

4. 进阶优化:使用 Lodash

我们可以直接使用 Lodash 提供的 debouncethrottle 方法,避免自己实现。

✅ Lodash 防抖

npm install lodash 
import _ from'lodash';const handleInput = _.debounce((e)=>{ console.log('防抖触发:', e.target.value);},500); document.getElementById('search').addEventListener('input', handleInput);

✅ Lodash 节流

const handleScroll = _.throttle(()=>{ console.log('节流触发',newDate().toLocaleTimeString());},1000); window.addEventListener('scroll', handleScroll);
Lodash 优势:内部优化更好,支持立即执行leading)和延迟执行trailing)。

5. 结合 Vue 实战应用

📌 Vue 中使用防抖

<template><inputv-model="searchText"@input="handleInput"placeholder="搜索"></template><script>import{ ref }from'vue';import _ from'lodash';exportdefault{setup(){const searchText =ref('');const handleInput = _.debounce((e)=>{ console.log('搜索关键词:', e.target.value);},500);return{ searchText, handleInput };},};</script>
效果:用户停止输入 500ms 后才会触发搜索请求。

📌 Vue 中使用节流

<template><button@click="handleClick">点击节流</button></template><script>import _ from'lodash';exportdefault{setup(){const handleClick = _.throttle(()=>{ console.log('按钮点击',newDate().toLocaleTimeString());},2000);return{ handleClick };},};</script>
效果:按钮每 2s 只能点击一次。

6. 结论

防抖(Debounce)和节流(Throttle) 是前端性能优化的重要技术,合理使用可以显著减少不必要的计算,提高页面流畅度。

适用场景推荐方法
输入框防止频繁请求防抖(Debounce)
窗口调整大小(resize)防抖(Debounce)
滚动事件(scroll)节流(Throttle)
鼠标移动(mousemove)节流(Throttle)
按钮点击(click)节流(Throttle)

Read more

AI绘画电商产品提示词撰写指南

AI绘画电商产品提示词撰写指南

在电商领域,利用 AI 绘画生成产品图片正逐渐成为提升商品视觉吸引力、提高运营效率的重要手段。而撰写精准有效的提示词,是让 AI 理解并生成符合预期产品图片的关键。 一、明确产品关键信息 产品基础描述 产品类型与用途:清晰界定产品所属类别,无论是服装、电子产品、家居用品还是美妆产品等,这是 AI理解产品的基础。同时,简要说明产品的核心用途或目标受众,可分为3层结构(按优先级排序) * 基础层:明确产品核心属性(避免 AI 生成偏差),包括「产品类别 + 规格 + 材质 / 工艺」,例: “女士夏季短袖连衣裙(长度到膝盖),雪纺面料,蕾丝领口” * 场景层:搭建使用场景(增强代入感),包括「使用环境 + 搭配元素 + 人群画像」,例: “在海边沙滩场景,搭配草编帽和珍珠凉鞋,适合 25-35

Stable Diffusion扩散模型原理与PyTorch实现

Stable Diffusion扩散模型原理与PyTorch实现 在生成式AI的浪潮中,Stable Diffusion无疑是最具代表性的技术之一。只需一句“一幅星空下的森林小屋”,它就能在几秒内生成一张逼真且富有艺术感的图像。这种能力背后,是深度学习、概率建模与高效计算框架的深度融合。而要真正掌握这项技术,不仅需要理解其数学原理,更要能在工程上快速部署和迭代。 PyTorch作为当前最主流的深度学习框架之一,凭借其灵活的动态图机制和强大的GPU加速能力,成为实现Stable Diffusion的理想选择。尤其当我们将它与预配置的PyTorch-CUDA-v2.8镜像结合使用时,整个开发流程从环境搭建到模型推理可以缩短至几分钟,极大提升了研发效率。 从噪声中“绘画”:Stable Diffusion的核心思想 Stable Diffusion的本质是一种扩散模型(Diffusion Model),它的灵感来源于物理学中的热扩散过程——就像一滴墨水在水中慢慢散开,图像信息也可以通过逐步添加噪声的方式被“抹去”。反过来,如果我们能学会如何一步步“去噪”,就可以从纯随机噪声中还原出

Android集成Whisper实战指南:从环境搭建到语音识别优化

快速体验 在开始今天关于 Android集成Whisper实战指南:从环境搭建到语音识别优化 的探讨之前,我想先分享一个最近让我觉得很有意思的全栈技术挑战。 我们常说 AI 是未来,但作为开发者,如何将大模型(LLM)真正落地为一个低延迟、可交互的实时系统,而不仅仅是调个 API? 这里有一个非常硬核的动手实验:基于火山引擎豆包大模型,从零搭建一个实时语音通话应用。它不是简单的问答,而是需要你亲手打通 ASR(语音识别)→ LLM(大脑思考)→ TTS(语音合成)的完整 WebSocket 链路。对于想要掌握 AI 原生应用架构的同学来说,这是个绝佳的练手项目。 从0到1构建生产级别应用,脱离Demo,点击打开 从0打造个人豆包实时通话AI动手实验 Android集成Whisper实战指南:从环境搭建到语音识别优化 最近在做一个需要语音交互的Android应用时,发现市面上开源的语音识别方案要么识别率不够理想,要么对网络依赖严重。直到遇到了OpenAI的Whisper模型,这个在语音识别领域表现出色的开源模型让我眼前一亮。不过在实际集成过程中,还是踩了不少坑,今天就把

Phi-3-mini-128k-instruct Chainlit插件开发:添加思维链可视化、Token用量统计面板

Phi-3-mini-128k-instruct Chainlit插件开发:添加思维链可视化、Token用量统计面板 你是不是也遇到过这种情况?用Chainlit调用大模型,模型回答得挺好,但你心里总有个问号:它到底是怎么“想”出这个答案的?每次对话消耗了多少计算资源?如果能让模型的“思考过程”和“资源消耗”变得一目了然,那该多好。 今天,我们就来解决这个问题。我将手把手教你为基于vLLM部署的Phi-3-mini-128k-instruct模型,开发两个实用的Chainlit插件:思维链可视化面板和Token用量统计面板。通过这两个插件,你不仅能“看见”模型的推理路径,还能精确掌握每次对话的成本,让AI对话从“黑盒”走向“透明”。 1. 项目准备与环境确认 在开始插件开发之前,我们先确保基础环境已经就绪。你已经按照官方说明,成功部署了Phi-3-mini-128k-instruct模型,并且能够通过Chainlit前端正常调用。 1.1 验证模型服务状态 打开终端,使用Webshell检查模型服务日志,确认部署成功。 cat /root/workspace/llm.l