使用VS Code运行前端代码

使用VS Code运行前端代码

文章目录


VS Code运行HTML文件

提示:这里可以添加本文要记录的大概内容:

但是我在使用VS Code和Hbuilder的不同是:

Hbuilder我记得是可以在菜单栏的“文件”→“新建”→“HTML5+项目”,填写项目名称、路径等信息后点击“完成”即可创建一个新项目

一、安装VS Code 配置插件

如何使用VS Code安装插件及VS Code上的常用插件点我查看

以前写HTML用的是Hbuilder,最近突然发现VS Code也不错,只需要安装open in browser插件即可

在这里插入图片描述

二、在电脑上新建文件夹

VS Code使用是在本地打开一个文件夹

先在电脑上新建个文件夹

在这里插入图片描述


打开VS Code
然后选择【文件】→【打开文件夹】,找到刚才新建的文件夹

在这里插入图片描述

随后点开该文件夹,再次右键选择【新建文件夹】
目的:做好文件分类

在这里插入图片描述

三、新建文件【名字.html】

然后要再右键新建文件【名字.html】使用
html文件图标会变成:<>
css文件图标会变成:#

请添加图片描述

四、运行.html文件

进入页面输入:html:5回车,我们大部分代码是写在body标签下的
下面是个简单的HTML页面展示:

在这里插入图片描述

在文件里面还有个自动保存代码的功能

在这里插入图片描述

VS Code运行VUE代码

Vue-cli脚手架

Read more

前端核心知识:Vue 3 编程的 10 个实用技巧

前端核心知识:Vue 3 编程的 10 个实用技巧

文章目录 * 1. **使用 `ref` 和 `reactive` 管理响应式数据** * 原理解析 * 代码示例 * 注意事项 * 2. **组合式 API(Composition API)** * 原理解析 * 代码示例 * 优势 * 3. **使用 `watch` 和 `watchEffect` 监听数据变化** * 原理解析 * 代码示例 * 注意事项 * 4. **使用 `provide` 和 `inject` 实现跨组件通信** * 原理解析 * 代码示例 * 优势 * 5. **使用 `Teleport` 实现组件挂载到任意位置** * 原理解析 * 代码示例 * 优势 * 6. **使用 `Suspense` 处理异步组件加载** * 原理解析 * 代码示例 * 优势

服务器无法访问WebUI?这几个排查步骤必看

服务器无法访问WebUI?这几个排查步骤必看 当你兴冲冲地执行完 bash start_app.sh,终端上也清晰地打印出: ============================================================ WebUI 服务地址: http://0.0.0.0:7860 ============================================================ 可一打开浏览器输入 http://你的服务器IP:7860,却只看到“无法访问此网站”“连接被拒绝”或“该网页无法正常运作”……别急,这绝不是模型本身出了问题,而是典型的服务可达性故障——它发生在模型启动之后、用户访问之前那个关键的“中间层”。 本文不讲OCR原理,不聊ResNet18结构,也不展开ONNX导出细节。我们聚焦一个最实际、最高频、最让人抓狂的问题:WebUI明明启动了,为什么就是打不开? 针对 cv_resnet18_ocr-detection OCR文字检测模型(构建by科哥) 这一镜像,我将带你按真实运维节奏,逐层穿透网络、系统、服

【Dify】使用 python 调用 Dify 的 API 服务,查看“知识检索”返回内容,用于前端溯源展示

【Dify】使用 python 调用 Dify 的 API 服务,查看“知识检索”返回内容,用于前端溯源展示

本文介绍了如何使用Dify HTTP API实现聊天问答功能,支持文本和图文交互。主要包含三个核心接口:上传文件获取ID、发送聊天消息(可携带图片)和删除会话。 脚本提供了极简封装类DifyChat,包含安全响应解析和可选会话管理功能。使用时需配置API地址、密钥和用户标识,支持纯文本问答和图文问答两种模式,并详细说明了流式输出、多用户适配等扩展场景的实现方法。 参考链接:对接Dify的api接口 上传文件、发起对话、删除对话 一、Dify 聊天示例脚本说明 本脚本演示了如何通过 Dify HTTP API 进行聊天问答,并可选携带图片。核心流程: 1. 上传文件(可选) * 调用 /v1/files/upload 上传本地图片,得到 upload_file_id。 * 只有在需要图文问答时才上传;纯文本时可跳过。 2. 发送对话消息 * 调用 /v1/chat-messages,

Qwen3-VL-WEBUI显存优化方案:4090D单卡高效运行部署案例

Qwen3-VL-WEBUI显存优化方案:4090D单卡高效运行部署案例 1. 背景与挑战 随着多模态大模型在视觉理解、图文生成和智能代理等场景的广泛应用,Qwen3-VL 系列作为阿里云推出的最新一代视觉-语言模型,凭借其强大的图文融合能力、长上下文支持(最高可达1M tokens)以及对视频动态建模的深度优化,迅速成为行业关注焦点。 然而,高性能往往伴随着高资源消耗。以 Qwen3-VL-4B-Instruct 为例,该模型参数量达40亿,在标准FP16精度下加载需占用约8GB显存,若叠加推理过程中的KV缓存、图像编码器开销及WebUI框架本身资源占用,常规部署极易突破24GB显存上限——这对消费级显卡如NVIDIA RTX 4090D(24GB VRAM)构成了严峻挑战。 本文基于真实项目实践,提出一套完整的显存优化+工程调优组合策略,成功实现 Qwen3-VL-WEBUI 在单张RTX 4090D上稳定、高效运行,为中小企业和个人开发者提供低成本、可落地的本地化多模态推理解决方案。 2. 技术选型与架构解析 2.1 Qwen3-VL-WEBUI 核心特性回顾