详细教程:如何从前端查看调用接口、传参及返回结果(附带图片案例)

详细教程:如何从前端查看调用接口、传参及返回结果(附带图片案例)

目录

1. 打开浏览器开发者工具

2. 使用 Network 面板

3. 查看具体的API请求

a. Headers​

b. Payload​

c. Response​

d. Preview

e. Timing​

4. 实际操作步骤

5. 常见问题及解决方法

a. 无法看到API请求

b. 请求失败

c. 跨域问题(CORS)

作为一名后端工程师,理解前端如何调用接口、传递参数以及接收返回值是非常重要的。下面将详细介绍如何通过浏览器开发者工具(F12)查看和分析这些信息,并附带图片案例帮助你更好地理解。

1. 打开浏览器开发者工具

按下 F12 或右键点击页面选择“检查”可以打开浏览器的开发者工具。常用的浏览器如Chrome、Firefox等都内置了开发者工具。下面是我选择我的一篇文章,打开开发者工具进行演示。

2. 使用 Network 面板

在开发者工具中,Network 面板用于监控和分析所有网络请求。以下是 Network 面板中的几个重要选项及其含义:

Name:显示请求的资源名称或API路径。

Status:HTTP状态码,表示请求的结果:

200 OK:成功响应。

400 Bad Request:客户端请求有误。

401 Unauthorized:未授权。

403 Forbidden:禁止访问。

404 Not Found:资源未找到。

500 Internal Server Error:服务器内部错误。

Type:资源类型,例如:

xhr(XMLHttpRequest)

fetch(现代的API请求方式)

script(JavaScript文件)

css(样式表)

img(图片)

Initiator:发起请求的源头,可能是JavaScript代码、HTML标签或其他资源。

Size:请求和响应的大小,包括头部和主体。

Time:请求的耗时,从发起请求到接收到完整响应的时间。

Waterfall:以瀑布图的形式展示每个请求的时间线,帮助你了解请求的顺序和延迟情况。

3. 查看具体的API请求

当你想查看某个具体的API请求时,可以在 Network 面板中找到对应的请求行,然后点击它展开详细信息。例如我打开我的一篇文章,查看左侧的“热门文章”的API请求,以下是一些关键部分:

a. Headers

包含请求头和响应头信息,如:

Content-Type:指定请求或响应的内容类型(如application/json)。

Authorization:用于身份验证的令牌或凭据。

Cookie:存储在客户端的会话信息。

User-Agent:标识发送请求的浏览器或客户端。

b. Payload

显示请求体的内容,即前端传递给后端的参数。对于不同类型的请求,Payload内容有所不同:

POST/PUT 请求:通常为JSON格式的数据,例如:

 { "username": "example", "password": "secret" }

GET 请求:参数通常作为URL查询字符串的一部分,例如:

 /api/users?name=John&age=30
c. Response

下面是与之相对应的前端展示:

显示后端返回的数据,通常为JSON格式。例如:

{ "id": 1, "name": "John Doe", "email": "[email protected]" }
d. Preview

以更友好的格式展示返回数据,便于阅读。对于复杂的嵌套结构,Preview 会自动格式化并提供折叠功能

e. Timing

展示请求各个阶段的时间消耗,帮助优化性能。具体分为以下几个阶段:

Queueing:请求排队等待的时间。

Stalled:请求被阻塞的时间。

DNS Lookup:解析域名的时间。

Initial Connection:建立TCP连接的时间。

SSL:SSL/TLS握手的时间。

Request Sent:发送请求的时间。

Waiting (TTFB):等待第一个字节响应的时间。

Content Download:下载响应内容的时间。

4. 实际操作步骤

假设你有一个前端页面调用了后端API来获取用户信息,你可以按照以下步骤进行查看:

打开浏览器开发者工具(F12),切换到 Network 标签页。

刷新页面或触发相关操作(如点击按钮),确保API请求被发送。

在 Network 列表中找到对应的API请求(例如/api/user)。

点击该请求行,查看详细的请求和响应信息,包括:

请求方法(GET/POST等)

请求参数(Payload)

返回结果(Response)

5. 常见问题及解决方法
a. 无法看到API请求

原因:可能你在触发请求之前没有打开开发者工具,或者过滤器设置不当。

解决方法:确保在触发请求之前已经打开了开发者工具,并且没有过滤掉API请求(可以通过输入框顶部的过滤器调整)。

b. 请求失败

原因:可能是客户端请求有误或服务器端出现问题。

解决方法:检查 Status 列是否显示了非2xx的状态码,查看 Response 中是否有错误信息。常见的错误包括:

400 Bad Request:检查请求参数是否正确。

401 Unauthorized:确认身份验证信息是否有效。

500 Internal Server Error:查看服务器日志以排查问题。

c. 跨域问题(CORS)

原因:浏览器出于安全考虑,默认不允许跨域请求。

解决方法:检查后端是否正确配置了CORS策略。确保响应头中包含以下字段:

Access-Control-Allow-Origin:允许的源地址。

Access-Control-Allow-Methods:允许的HTTP方法。

Access-Control-Allow-Headers:允许的请求头。

Read more

【AI】高效交互的艺术:AI提示工程与大模型对话指南

【AI】高效交互的艺术:AI提示工程与大模型对话指南

🔥小龙报:个人主页 🎬作者简介:C++研发,嵌入式,机器人等方向学习者 ❄️个人专栏:《AI》 ✨ 永远相信美好的事情即将发生 文章目录 * 前言 * 一、ChatatGPT介绍 * 二、什么是提示工程? * 三、大语言模型的底层原理 * 四、AI的相关术语 * 五、如何与AI(以ChatatGPT为例)更好交流 * 5.1 使用AI的核心 * 5.2 提示组成结构 * 5.3 创建好的提示的策略 * 5.4 提示的类别 * 5.5 创建在和AI提示的进阶框架 * 5.6如何减少AI回答的空洞无味感 * 5.7 如何提高AI回答的可读性 * 六、使用AI的更多技巧 * 6.1 高效提示的原则 * 6.

如何提升LLaMA推理速度?vLLM-v0.11.0部署教程揭秘

如何提升LLaMA推理速度?vLLM-v0.11.0部署教程揭秘 如果你正在用LLaMA、Qwen这类大模型,是不是经常觉得生成速度太慢,等得让人着急?或者当你想同时服务多个用户时,服务器内存一下就爆了,响应时间直线上升? 这些问题,几乎是每个做大模型应用开发的人都会遇到的坎。传统的推理框架,在处理长文本、高并发请求时,效率确实不够看。但今天,我要给你介绍一个“神器”——vLLM。它能让你的模型推理速度提升5到10倍,而且内存占用还大幅降低。 我最近深度体验了vLLM-v0.11.0这个版本,把它部署在了实际的业务场景里。效果怎么说呢?就像给老牛拉的车换上了V8发动机。一个原本需要十几秒才能回复的LLaMA模型,现在两三秒就能给出结果,并且能同时处理更多的用户请求。 这篇文章,我就手把手带你从零开始,把vLLM-v0.11.0部署起来,让你亲身体验一下这种“飞一般”的感觉。我们不讲太多复杂原理,就聚焦在“怎么装、怎么用、效果怎么样”这三个最实际的问题上。 1. 认识vLLM:为什么它能“起飞”

比迪丽Stable Diffusion教程:结合Inpainting修复局部细节(如发饰)

比迪丽Stable Diffusion教程:结合Inpainting修复局部细节(如发饰) 你是不是也遇到过这种情况?用比迪丽LoRA模型生成了一张很棒的动漫角色图,整体感觉都对,但就是某个小细节——比如发饰的形状、颜色或者位置——总是不太对劲。重画吧,又怕破坏了整体构图;不修吧,看着又有点别扭。 今天我就来分享一个特别实用的技巧:用Stable Diffusion的Inpainting(局部重绘)功能,精准修复比迪丽角色的局部细节。这个方法就像给你的AI绘画加了个“局部美颜”工具,哪里不对修哪里,不用从头再来。 1. 为什么需要局部修复? 1.1 常见的问题场景 在使用比迪丽LoRA模型时,我经常遇到这些细节问题: 发饰问题最典型: * 发饰形状不对:明明想要蝴蝶结,却生成了花朵 * 颜色不匹配:发饰颜色和服装不协调 * 位置偏移:发饰戴在了奇怪的位置 * 细节模糊:发饰边缘不清晰,缺乏质感 其他局部问题: * 眼睛不对称:一只大一只小 * 服装细节:纽扣、花纹不清晰

零代码体验!DeepSeek-R1-Distill-Llama-8B在线演示教程

零代码体验!DeepSeek-R1-Distill-Llama-8B在线演示教程 想体验最新的大语言模型推理能力,但又不想折腾复杂的本地部署环境?今天我来带你体验一个完全零代码的解决方案——DeepSeek-R1-Distill-Llama-8B在线演示服务。不需要安装任何软件,不需要配置Python环境,甚至不需要懂命令行,打开网页就能直接使用这个强大的推理模型。 DeepSeek-R1系列模型在数学、代码和逻辑推理任务上表现相当出色,而今天我们体验的8B版本是它的蒸馏版本,在保持强大推理能力的同时,模型体积更小,运行效率更高。最棒的是,现在你可以通过一个简单的网页界面直接体验它的能力。 1. 模型能力概览:为什么选择DeepSeek-R1-Distill-Llama-8B 1.1 模型背景与特点 DeepSeek-R1是DeepSeek团队推出的第一代推理模型,它通过大规模强化学习训练,在数学、编程和逻辑推理任务上表现出色。你可能听说过OpenAI的o1模型在推理任务上的强大表现,而DeepSeek-R1在多项基准测试中达到了与o1相当的水平。 我们今天要体验的Dee