web前端JS—基本语法

一、引入方式

1、内部脚本:将代码定义在HTML页面里面

  • 将JS定义在<script></script>之间
  • 可以在html里面的任意位置放置任意数量的<script></script>
  • 一般放置在<body>元素的底部,改善显示速度
<script> console.log('页面加载时执行'); function localFunction() { return '内部函数'; } </script>

2、外部脚本:额外定义一个.js文件,引入到HTML里面

  • 只能包含js文件,不包含<script>标签
 <script src="app.js"></script> 
  • <script>不能自闭合
<script src="https://cdn.example.com/lib.js" integrity="sha384-xxx" crossorigin="anonymous"> </script>

二、基本语法

1. 变量声明

JavaScript 提供了三种声明变量的方式:

  • var:传统声明方式,存在变量提升,函数作用域。        
    • 全局变量,作用域较大;
    • 可以重复定义
  • let:ES6 引入,块级作用域,不存在变量提升,不允许重复声明。
    • 局部定义,不能重复定义
  • const:ES6 引入,块级作用域,声明常量,不可重新赋值(但对象或数组的内容可以修改)。
  • 原始类型:Number、String、Boolean、Null、Undefined、Symbol(ES6)、BigInt(ES2020)。
  • 引用类型:Object(包括Ar

2. 数据类型

JavaScript 是动态类型语言,拥有以下几种基本数据类型和引用类型:

var x=20; x="LXX";

Read more

终极语音转文字方案:OpenAI Whisper一键配置完整指南

终极语音转文字方案:OpenAI Whisper一键配置完整指南 【免费下载链接】whisper-tiny.en 项目地址: https://ai.gitcode.com/hf_mirrors/openai/whisper-tiny.en 在现代办公环境中,快速将语音内容转换为文字记录已成为提升工作效率的关键。OpenAI Whisper作为当前最先进的语音识别技术,凭借其68万小时训练数据的强大背景,为普通用户提供了简单易用的本地化语音转文字解决方案。本文将为你详细介绍如何快速部署和使用Whisper模型,让每个人都能轻松享受AI技术带来的便利。 🚀 三分钟快速上手:新手也能轻松配置 想要使用Whisper进行语音转文字,你只需按照以下简单步骤操作: 第一步:获取模型文件 从项目仓库下载模型文件到本地: git clone https://gitcode.com/hf_mirrors/openai/whisper-tiny.en 第二步:安装必要依赖 使用Python的pip命令安装transformers库: pip install transformers

By Ne0inhk

Stable Diffusion风格定制新利器——lora-scripts自动化训练工具介绍

Stable Diffusion风格定制新利器——lora-scripts自动化训练工具介绍 在AIGC(人工智能生成内容)浪潮席卷创意产业的今天,越来越多设计师、艺术家和开发者开始尝试用AI表达独特风格。然而,一个现实问题始终存在:通用模型虽然强大,却难以精准还原某一种特定画风、人物特征或场景氛围。你可能输入了几十次“赛博朋克城市夜景”,结果要么太普通,要么偏离预期。 有没有办法让Stable Diffusion真正“学会”你的审美?答案是肯定的——通过LoRA微调技术,我们可以为大模型注入专属风格能力。而真正让这一过程变得人人可及的,正是 lora-scripts 这一自动化训练工具。 它不只是一套脚本,更像是一个“个性化模型工厂”:只需准备好少量图片和简单配置,就能自动完成从数据处理到模型导出的全流程。更重要的是,整个过程无需编写深度学习代码,消费级显卡即可运行。这让个体创作者也能拥有自己的数字画笔,企业团队则能快速构建垂直领域的专业模型。 LoRA为何成为高效微调的首选? 要理解 lora-scripts 的价值,首先要看懂它背后的 LoRA 技术原理。 传统全量

By Ne0inhk

AI绘画反向提示词实战指南:如何精准控制生成结果

快速体验 在开始今天关于 AI绘画反向提示词实战指南:如何精准控制生成结果 的探讨之前,我想先分享一个最近让我觉得很有意思的全栈技术挑战。 我们常说 AI 是未来,但作为开发者,如何将大模型(LLM)真正落地为一个低延迟、可交互的实时系统,而不仅仅是调个 API? 这里有一个非常硬核的动手实验:基于火山引擎豆包大模型,从零搭建一个实时语音通话应用。它不是简单的问答,而是需要你亲手打通 ASR(语音识别)→ LLM(大脑思考)→ TTS(语音合成)的完整 WebSocket 链路。对于想要掌握 AI 原生应用架构的同学来说,这是个绝佳的练手项目。 从0到1构建生产级别应用,脱离Demo,点击打开 从0打造个人豆包实时通话AI动手实验 AI绘画反向提示词实战指南:如何精准控制生成结果 生成结果不可控的典型问题 AI绘画生成过程中常出现不符合预期的结果,例如人物面部扭曲、肢体结构异常或画面元素杂乱。具体案例包括: * 生成人像时出现三只手臂或错位五官 * 风景图中建筑物比例失调、透视错误 * 画面包含多余噪点或色块污染 这些问题源于模型在latent

By Ne0inhk
【实践】操作系统智能助手OS Copilot新功能测评

【实践】操作系统智能助手OS Copilot新功能测评

一、引言         数字化加速发展,尤其人工智能的发展速度越来越快。操作系统智能助手成为提升用户体验与操作效率的关键因素。OS Copilot借助语言模型,人工智能等,对操作系统的自然语言交互操作 推出很多功能,值得开发,尤其运维,系统操作等比较适用,优化用户与操作系统的交互模式。本次测评,按照测评指南进行相关测评,得出下面的测评报告。 二、OS Copilot简介         OS Copilot 是一款致力于深度融合于操作系统的智能助手,它旨在成为用户与操作系统交互的得力伙伴 。通过先进的自然语言处理技术和机器学习算法,OS Copilot 能够理解用户多样化的指令,将复杂的操作系统操作简单化。         在日常使用场景中,无论是文件管理、应用程序的操作,还是系统设置的调整,OS Copilot 都能提供高效的支持。例如,在文件管理方面,用户无需手动在层层文件夹中查找文件,只需通过描述文件的大致信息,如创建时间、文件内容关键词等,就能快速定位到目标文件。         对于应用程序,它不仅能根据用户的使用习惯智能启动,还能在应用程序运行时进行优化,确保

By Ne0inhk