前端学习日记 - 前端函数防抖详解

前端学习日记 - 前端函数防抖详解

前端函数防抖详解

在现代 Web 应用中,函数防抖(debounce)是一种常见且高效的性能优化手段,用于限制高频事件触发下的函数调用次数,从而减少不必要的计算、网络请求或 DOM 操作。本文将从“为什么使用防抖”切入,介绍典型的应用场景,深入解析防抖原理,并给出从零实现到在实际项目中使用 Lodash 的完整代码示例,帮助你快速掌握前端防抖技术。

在这里插入图片描述

为什么使用防抖

函数防抖的核心思想是在连续触发的事件停止后,仅执行最后一次调用,以避免频繁触发带来的性能问题 ([MDN Web Docs][1])。
在不使用防抖的情况下,例如在 input 输入事件或 window.resize 事件中直接调用逻辑,页面可能会因短时间内大量调用而出现卡顿或请求风暴 ([GeeksforGeeks][2])。
通过防抖,可以让函数在用户停止输入、滚动或调整窗口大小后的一定延迟内才执行,极大提高资源利用效率并提升用户体验 ([Medium][3])。

函数防抖的应用场景

  1. 输入框实时搜索建议
    在用户输入关键词时触发搜索接口,若不加限制,每次 keyup 都会发起请求,极易导致接口压力过大。使用防抖后,只在用户停止输入(如 300ms)后才发送请求,有效降低调用次数 ([自由代码营][4])。
  2. 按钮防连点
    对于提交表单或支付按钮,连续点击可能导致多次提交。给点击事件绑定防抖函数,可在用户短时间内多次点击时只执行一次提交操作 ([DEV Community][5])。
  3. 窗口大小调整(resize)
    当页面布局需根据窗口大小实时计算或重绘时,resize 事件会频繁触发,添加防抖能减少重绘次数,提升性能 ([Medium][6])。
  4. 滚动监听
    结合无限滚动或懒加载,当用户滚动页面时应控制数据加载频率,避免重复请求或过度渲染 ([Medium][3])。

函数防抖原理与手写实现

原理

防抖函数通过内部维护一个定时器 ID,每次调用时先清除之前的定时器,再启动一个新的延迟执行定时器;只有在最后一次调用后的延迟时间到达后,才真正执行目标函数 ([GeeksforGeeks][2], [Gist][7])。

手写实现

/** * 简易版防抖函数 * @param {Function} func - 需要防抖的函数 * @param {number} wait - 延迟时间(毫秒) * @returns {Function} - 防抖后返回的新函数 */functiondebounce(func, wait){let timeoutId;// 声明定时器 IDreturnfunction(...args){// 返回一个闭包函数clearTimeout(timeoutId);// 清除上一次定时器 timeoutId =setTimeout(()=>{// 启动新的定时器func.apply(this, args);// 延迟执行目标函数}, wait);};}

上述代码利用 JavaScript 闭包,让每个防抖函数维护独立的 timeoutId,在多次调用时只有最后一次延迟结束后触发 ([Stack Overflow][8])。

使用 Lodash 的 _.debounce

在实际项目中,为了减少手写错误并获得更丰富的功能(如 leadingtrailingcancelflush 等选项),推荐使用成熟的工具库 Lodash 的 _.debounce 方法 ([Lodash][9])。

# 安装 lodash.debounce 子模块npminstall lodash.debounce 
import debounce from'lodash.debounce';/** * 在搜索框中使用防抖 * 当用户停止输入 300ms 后才触发搜索 */const searchInput = document.getElementById('search');functiononSearch(query){// 发送搜索请求 console.log('搜索关键词:', query);}const debouncedSearch =debounce(onSearch,300,{ leading:false, trailing:true}); searchInput.addEventListener('input',(e)=>{debouncedSearch(e.target.value);});
  • leading: 是否在延迟开始前调用一次,默认 false
  • trailing: 是否在延迟结束后调用一次,默认 true
  • 返回的函数还拥有 cancel()flush() 方法,可在需要时取消或立即执行待定调用 ([GeeksforGeeks][10])。

完整示例:防抖搜索组件

下面给出一个完整的示例,包括 HTML、样式与 JavaScript 代码,你可以直接复制运行:

<!DOCTYPEhtml><htmllang="zh-CN"><head><metacharset="UTF-8"><title>Debounce Demo</title><style>body{font-family: sans-serif;padding: 2rem;}#results{margin-top: 1rem;}.item{padding: 0.5rem 0;border-bottom: 1px solid #eee;}</style></head><body><h1>Debounce 搜索示例</h1><inputid="search"type="text"placeholder="输入关键词…"autocomplete="off"/><divid="results"></div><scripttype="module">import debounce from'lodash.debounce';const search = document.getElementById('search');const results = document.getElementById('results');// 模拟异步搜索函数asyncfunctionfetchResults(query){// 假数据return['苹果','香蕉','橘子','西瓜'].filter(item=> item.includes(query));}asyncfunctionhandleSearch(query){const list =awaitfetchResults(query); results.innerHTML = list.map(item=>`<div>${item}</div>`).join('');}// 300ms 防抖,禁止 leading,允许 trailingconst debouncedHandle =debounce(handleSearch,300,{ leading:false}); search.addEventListener('input',e=>{const q = e.target.value.trim();if(q)debouncedHandle(q);else results.innerHTML ='';});</script></body></html>

结语

函数防抖是前端性能优化中的一项基础技术,适用于各种需要限制高频事件调用的场景,通过简单的定时器逻辑或成熟的 Lodash 工具库,就能快速落地。掌握防抖和其“兄弟”节流(throttle),能让你的应用在面对频繁用户交互时依然保持流畅、稳定。欢迎在项目中实践并根据业务需求调整参数,实现更灵活的性能优化。

Read more

AI的提示词专栏:错误定位 Prompt,快速定位异常堆栈

AI的提示词专栏:错误定位 Prompt,快速定位异常堆栈

AI的提示词专栏:错误定位 Prompt,快速定位异常堆栈 本文聚焦错误定位 Prompt 的设计与应用,先阐释异常堆栈的核心构成及开发者定位错误时的信息过载、经验依赖等痛点,明确错误定位 Prompt 需实现信息提取、根因推测、行动指南三大目标。接着分别给出适用于新手的基础模板与面向资深开发者的进阶模板,结合 Python 索引越界、微服务订单创建错误等案例展示模板实战效果。还介绍了针对 Java、Python、JavaScript 等多语言及数据库、分布式链路等特殊场景的 Prompt 适配技巧,提出通过约束输出细节、添加负面清单、示例引导优化模型输出的方法,最后以章节总结和含思路点拨的课后练习巩固知识,助力开发者借助 Prompt 高效定位不同场景下的程序错误。 人工智能专栏介绍     人工智能学习合集专栏是 AI 学习者的实用工具。它像一个全面的 AI 知识库,把提示词设计、AI 创作、智能绘图等多个细分领域的知识整合起来。无论你是刚接触 AI 的新手,还是有一定基础想提升的人,都能在这里找到合适的内容。

Flutter 三方库 huggingface_client 的鸿蒙化适配指南 - 连接全球最大 AI 开源社区、助力鸿蒙应用构建云端一体的大模型推理能力

Flutter 三方库 huggingface_client 的鸿蒙化适配指南 - 连接全球最大 AI 开源社区、助力鸿蒙应用构建云端一体的大模型推理能力

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 huggingface_client 的鸿蒙化适配指南 - 连接全球最大 AI 开源社区、助力鸿蒙应用构建云端一体的大模型推理能力 前言 在 OpenHarmony 鸿蒙应用全场景智能化的今天,AI 模型的获取与推理能力已成为应用的核心竞争力。如果你希望在鸿蒙应用中集成最前沿的文本生成、图像识别或语音转写功能,而又不想从零开始训练模型,那么 Hugging Face Hub 正是你不可或缺的“AI 军火库”。huggingface_client 作为一个专为 Dart/Flutter 设计的官方级客户端,提供了对 Hugging Face API 的深度封装。本文将指导你如何在鸿蒙端利用此库轻松调取全球顶尖的开源 AI 算力。 一、原原理分析 / 概念介绍 1.1

5分钟掌握whisper.cpp模型部署:从tiny到large-v3-turbo的实战指南

还在为本地语音识别项目选择合适的模型而烦恼吗?当需要在资源受限的环境中部署高效的语音转文字功能时,模型大小、速度和准确率的平衡往往让开发者头疼。本文通过实测对比whisper.cpp的8种主流模型,帮你快速找到最适合业务场景的解决方案。读完本文你将获得: 【免费下载链接】whisper.cppOpenAI 的 Whisper 模型在 C/C++ 中的移植版本。 项目地址: https://gitcode.com/GitHub_Trending/wh/whisper.cpp * 不同规模模型的磁盘占用与性能数据 * 实时/离线场景下的模型选择决策指南 * 一行命令完成模型部署的实操教程 模型规格全景图 whisper.cpp作为OpenAI Whisper模型的C/C++移植版,提供了从微型到大型的完整模型系列。这些模型经过优化可在CPU/GPU上高效运行,其核心差异体现在参数量与能力范围上。 官方模型规格速查表 模型名称磁盘占用支持语言典型应用场景tiny.en75 MiB仅英语嵌入式设备、实时语音控制base142 MiB多语言移动端App、语音助手small

终极免费语音转文本方案:OpenAI Whisper完整使用指南

终极免费语音转文本方案:OpenAI Whisper完整使用指南 【免费下载链接】whisper-base.en 项目地址: https://ai.gitcode.com/hf_mirrors/openai/whisper-base.en 想要将会议录音、学习讲座、播客内容快速转换为文字吗?OpenAI Whisper作为当前最先进的语音识别模型,能够高质量完成语音转文本任务,支持多语言识别,特别适合个人用户和中小团队使用。无需复杂的配置,只需简单几步即可享受专业的语音转录服务。 🎯 为什么选择Whisper语音转文本? 完全开源免费:Whisper模型完全开源,无需任何付费订阅,让每个人都能享受顶尖的语音识别技术。 多场景实用价值: * 📝 会议记录:自动生成完整会议纪要 * 🎓 学习笔记:将讲座内容转为可搜索文字 * 🎙️ 内容创作:为播客、视频生成准确字幕 * 📱 个人助手:语音备忘录自动文字化 🚀 5分钟快速上手 环境准备清单 * Python 3.8+ 环境 * FFmpeg音频处理工具 * 足够存储空间(基础模型约2.