前端怎么打断点,debugger使用教程

流程1:打上断点

方式一:编辑器内

在一行代码的前面或者后面写上debugger
运行到这的时候就会停止啦

方式二:浏览器控制台内

直接在控制台的source(中文版为源代码/来源)目录下点击左边的行数即可

然后刷新一下 

流程2:遇上断点

遇到断点后,程序会停止运行,此时注意,控制器里打断点的那行代码并没有被执行,
第一个按钮是一直执行到下一个断点的意思,直到运行完毕
第二个按钮是进行下一步,也就是执行下一个逻辑,又或者说,【按逻辑(比如会遇到 if 那些)去执行下一行代码】。

箭头:停止断点调试
眼睛:不跳入函数中去,继续执行下一行代码(F10)
向下的箭头:跳入函数中去(F11)
向上的箭头:从执行的函数中跳出
带斜杠的图标:禁用所有的断点,不做任何调试
 

流程3:查看变量(英文版为scope)

可以查看到不同作用域下的变量的动态变化 ,如下图所示,展示了代码块范围内的所有变量:

提示

提醒一句:对有异步代码的文件进行断点时有个小提醒,可能你在断点的情况下正常运行了,但不断点的情况下就不正常了,这时候就要想到异步的时机问题,可能断点的时候异步就执行完了。

补充 

代表 “下一步(Step)”:运行下一条指令,快捷键 F9。运行下一条语句。一次接一次地点击此按钮,整个脚本的所有语句会被逐个执行。

代表 “跨步(Step over)”:运行下一条指令,但 不会进入到一个函数中,快捷键 F10。
跟上一条命令“下一步(Step)”类似,但如果下一条语句是函数调用则表现不同。这里的函数指的是:不是内建的如 alert 函数等,而是我们自己写的函数。

如果我们对比一下,“下一步(Step)”命令会进入嵌套函数调用并在其第一行暂停执行,而“跨步(Step over)”对我们不可见地执行嵌套函数调用,跳过了函数内部。

执行会在该函数调用后立即暂停。

如果我们对该函数的内部执行不感兴趣,这命令会很有用。

 🚀 个人简介:某大型国企资深软件开发工程师,信息系统项目管理师、ZEEKLOG优质创作者、阿里云专家博主、华为云云享专家,分享前端后端相关技术与工作常见问题~

💟 作    者:码喽的自我修养❣️

📝 专    栏:前端常见问题与避坑指南

🌈 若有帮助,还请 关注➕点赞➕收藏 ,不行的话我再努努力💪💪💪
   更多专栏订阅推荐:

🥕 JavaScript深入研究

👍 前端工程搭建
💕 vue从基础到起飞

✈️ HTML5与CSS3

🖼️ JavaScript基础

⭐️ uniapp与微信小程序

📝 前端工作常见问题与避坑指南

✍️ GIS地图与大数据可视化

📚 常用组件库与实用工具

💡 java入门到实战 

Read more

开源:AI+无人机巡检系统项目调研

主流开源AI无人机巡检项目调研 本部分系统梳理了当前主流的开源无人机巡检相关项目,涵盖飞控系统、地面站软件、AI视觉识别、数据处理等多个技术栈,为商业化产品开发提供技术选型参考。 一、飞控与地面站开源项目 1.1 PX4 Autopilot 项目地址:github.com/PX4/PX4-Autopilot 开源协议:BSD 3-Clause 项目简介:由Dronecode基金会(Linux基金会旗下)维护的专业级开源自动驾驶仪软件,是全球最广泛使用的无人机飞控系统之一。支持多旋翼、固定翼、垂直起降等多种机型,广泛应用于工业无人机和科研领域。 核心能力:飞行控制、任务规划、传感器融合、MAVLink通信协议、硬件抽象层、模块化架构 1.2 ArduPilot 项目地址:github.com/ArduPilot/ardupilot 开源协议:GPLv3 项目简介:历史最悠久的开源自动驾驶仪项目,社区活跃度极高。

PyTorch实战——基于文本引导的图像生成技术与Stable Diffusion实践

PyTorch实战——基于文本引导的图像生成技术与Stable Diffusion实践

PyTorch实战——基于文本引导的图像生成技术与Stable Diffusion实践 * 0. 前言 * 1. 基于扩散模型的文本生成图像 * 2. 将文本输入编码为嵌入向量 * 3. 条件 UNet 模型中的文本数据融合机制 * 4. 使用 Stable Diffusion 模型生成图像 * 相关链接 0. 前言 在本节中,我们将为扩散模型添加文本控制能力。学习如何通过文字描述来引导图像生成过程,实现从"纯噪声+文本"生成图像,而不仅是从纯噪声生成。 1. 基于扩散模型的文本生成图像 在扩散模型的 UNet 模型训练流程中,我们仅训练模型从含噪图像中预测噪声。为实现文生图功能,需使用以下架构,将文本作为额外输入注入 UNet 模型: 这样的 UNet 模型称为条件 UNet 模型 ,或者更精确地说,是文本条件 UNet

智能桌面机器人快速上手指南:3步打造你的AI桌面伙伴

智能桌面机器人快速上手指南:3步打造你的AI桌面伙伴 【免费下载链接】ElectronBot 项目地址: https://gitcode.com/gh_mirrors/el/ElectronBot 想拥有一个能眨眼、会表达情绪的智能桌面机器人吗?ElectronBot这个开源项目让你零基础也能实现这个梦想!无论你是编程新手还是硬件爱好者,跟着这篇指南,3步就能搭建属于自己的AI桌面伙伴。 为什么你应该尝试智能桌面机器人? 桌面机器人不只是科技玩具,它更是连接现实与数字世界的桥梁。通过ElectronBot项目,你将收获: * 动手乐趣:亲手组装机械部件,感受创造的快乐 * 编程入门:通过简单的代码控制机器人动作,轻松学习编程思维 * 创意表达:让这个小机器人成为你的表情包播放器、桌面提醒助手 三大技术突破:从想象到现实 突破一:模块化设计让搭建变简单 🎯 传统的机器人制作需要深厚的硬件知识,但ElectronBot采用模块化设计,将复杂系统分解为四个核心模块: * 主控大脑:STM32芯片负责整体协调 * 感知系统:手势识别传感器让机器人"看懂"你的动

论文笔记DiT:Scalable Diffusion Models with Transformers(含transformer的可扩展扩散模型 )

论文笔记DiT:Scalable Diffusion Models with Transformers(含transformer的可扩展扩散模型 )

Abstract:     论文的核心思想非常直接:用一个标准的 Transformer 架构替换掉扩散模型中常用的 U-Net 主干网络,并证明这种新架构(称为 DiT, Diffusion Transformer)具有出色的可扩展性(Scalability)。 Background & Motivation:     在论文发表前,Transformer 已经在自然语言处理(BERT, GPT)和计算机视觉(ViT)等领域取得了巨大成功,成为了一种“统一”的架构。然而,在图像生成领域,特别是扩散模型中,大家仍然普遍使用 U-Net。U-Net 因其多尺度特征融合和卷积的局部归纳偏置而被广泛采用。     在深度学习中,一个好的架构应该具备良好的“可扩展性”——即投入更多的计算资源(更大的模型、更多的数据),性能应该会持续稳定地提升。ViT 已经证明了 Transformer 在视觉识别任务上具有这种特性。作者们希望验证 DiT 是否也具备这种优良特性,为未来的生成模型发展指明一条清晰的路径。