前端高频面试题-场景题,零基础入门到精通,收藏这篇就够了

1、一般vue开发用什么库来辅助
vantUI elementUI js-cookie socket.io axios ECharts 
2、页面刚开始出现一片空白的原因
1、网络设置的问题,有可能是IP、端口等出现问题了 2、网速比较慢导致(加载速度慢) 3、浏览器本身出现问题了 4、网络防火墙的问题,设置安全级别过高 5、病毒导致 6、打包路径不对 
3、vue的项目如何做首屏的优化
v-if 和 v-show 区分使用场景 computed 和 watch 区分使用场景 v-for 遍历必须为 item 添加 key,且避免同时使用 v-if 长列表性能优化 事件的销毁 addEventlisenter 事件监听 图片资源懒加载 精灵图 路由懒加载 第三方插件的按需引入 优化无限列表性能 服务端渲染 SSR 代码压缩 
4、在浏览商品时,点击商品详情,然后返回,要求进度条还在之前的位置,怎么做
1、App.vue页面中使用keep-alive缓存组件 2、在离开商品详情页记录进度条的高度,返回商品详情的重新给进度条进行赋值 
5、localstorage能实现token的存储需求,为啥还要存储在vuex中呢
1、因为localstorage里面存储的类型只能是字符串,如果存储的内容不是字符串,还需要转换,有额外的性能消耗 2、localstorage里面的数据变化不能进行监控,如果有需求是根据token的变化进行的操作的,那localstorage就实现不了 3、localstorage是磁盘操作,vuex是内存操作,其实性能比vuex去数据慢的多 
6、项目中后台接口没有写好你怎么做,有几种方式
可以模拟假数据 方式:组件内写死 mock.js json-serve 
7、cookie为什么不能存储token或存储在cookie有什么问题
1、cookie每次请求都会携带,比较消耗性能 2、防止CSRF攻击,CSRF主要就是攻击浏览器的cookie,这样如果存储token就容易被劫持到 
8、如果任务分配不合理你会怎么办
看能不能在规定的时间内完成,如果能完成,完成后找老大说明这个问题。如果完成不了,及时找老大协商,不能耽误项目的开发进程。 
9、axios挂到原型上有什么作用
各个组件内,可以直接拿到用axios,就不需要各个组件进行引入了 
13、怎么知道自己项目所处的环境是什么
1、看ip和端口地址 2、启动项目方式 
14、cli用的是那个版本和src里面都有哪些文件
版本: Vue 2.6.10 版本 vuex 3.1.0 版本 Vue-cli 4.4.4 版本 webpack 4.4.0 版本 src: api 接口请求 assets 静态图片 components 公共组件 icons 字体图标 router 路由配置 store vuex utils axios封装 views 页面级路由 
15、你封装过组件吗,有什么,说一下怎么封装的
我用vue开发的所有项目,都是采用组件化的思想开发的。一般我在搭建项目的时候,会创建一个views目录和一个components目录,views目录中放页面级的组件,components中放公共组件(如:head(公共头组件),foot(公共底部组件)等) 例如:1、评论组件里面有很多小的功能点,为了后期维护,就把他提取成了一个单独的组件 然后再文章组件中引入注册,使用就行了 2、头部组件抽离 1)抽离一个headerTop 2) 组件内容接受标题或标签 <template> <slot name="left"></slot> <div>{{title}}</div> <slot name="right"></slot> </template> props:['title'] 3) 其他组件引入 components:{HeaderTop} 4) 组件内使用 <HeaderTop title="标题"> <div slot='left'>左边内容</div> <div slot='right'>右边内容</div> </HeaderTop> 
16、怎么做项目的权限控制
项目背景:现有一个后台管理系统,共存在两种类型的人员 1、超级管理员(称作admin) 2、普通用户(称作editor) 每种类型的人看到的操作栏并不一样,可以进行的操作也不尽相同,于是就需要程序处理一下各个权限问题。 具体实现思路 1、在路由router.js里面声明权限为admin的路由,通过meta标签来标示改页面能访问的权限有哪些。如meta: { role: [‘admin’,’super_editor’] }表示该页面只有admin和超级编辑才能有资格进入 2、当用户登录后,获取用roles,将roles和路由表每个页面的需要的权限作比较,调用router.addRoutes(store.getters.addRouters)添加用户可访问的路由,生成最终用户可访问的路由表。路由表存在vuex里面 3、使用vuex管理路由表,根据vuex中可访问的路由渲染侧边栏组件(菜单) 
17、axios是怎么封装的
1、在Utils中的request.js里面,引入axios,配置基础路径、请求拦截器和响应拦截器,并返回axios 2、在api文件里面,引入request.js,根据各组件需要,配置各个组件的接口请求文件 
18、PC端的兼容问题你遇到那些
1、img下的留白 解决方案:给img设定display:block。 2、如果图片加a标签在IE9-中会有边框 解决方案:给img设定border:none。 3、rgba不支持IE8 解决方案:可以用 opacity 4、标签最低高度设置min-height不兼容ie6/7 解决方案:如果我们要设置一个标签的最小高度200px,需要进行的设置为:{min-height:200px; height:auto !important; height:200px; overflow:visible;} 5、图片加a标签在IE9中出现边框 解决方案: img{border: none;} 
19、移动端的兼容问题你遇到那些
1、在ios和andriod中,audio元素和video元素在无法自动播放 应对方案:触屏即播 $('html').one('touchstart',function(){ audio.play() }) 2、iOS 系统中文输入法输入英文时,字母之间可能会出现一个六分之一空格 可以通过正则去掉: this.value = this.value.replace(/\u2006/g, ''); 3、IOS移动端click事件300ms的延迟响应 引入第三方插件fastclick可以解决在手机上点击事件的300ms延迟 4、 h5底部输入框被键盘遮挡问题 h5页面有个很蛋疼的问题就是,当输入框在最底部,点击软键盘后输入框会被遮挡。可采用如下方式解决 1)定义一个class: .focusState {position: absolute;} 2)利用监听键盘的收起展开事件来添加移除定义的focusState 样式 created(){ var clientHeight = document.documentElement.clientHeight || document.body.clientHeight; window.onresize = function() { // onresize 事件会在窗口或框架被调整大小时发生 var nowClientHeight = document.documentElement.clientHeight || document.body.clientHeight; if (clientHeight - nowClientHeight > 60 ) {//因为ios有自带的底部高度 //键盘弹出的事件处理 document.getElementById("apply").classList.add("focusState"); // classList 该属性用于在元素中添加, 移除及切换 CSS 类 } else { //键盘收起的事件处理 document.getElementById("apply").classList.remove("focusState"); } }; }, 
20、移动端如何做真机测试
方式1、公司有测试服务器,代码放到测试服务器上,进行手机访问测试 方式2、自己电脑上搭服务器,保证自己手机和电脑处于同一个局域网,然后用手机进行访问测试 
21、H5和app的区别
1、H5是通过链接进行访问,而APP是通过应用程序进行访问 2、H5在应用商店里面没有,而APP是有的 3、H5不需要审核就可以上线,而APP是需要审核的 4、H5的响应速度没有APP快 5、H5的开发成本比APP低 

2025开年,AI技术打得火热,正在改变前端人的职业命运:

阿里云核心业务全部接入Agent体系;

字节跳动30%前端岗位要求大模型开发能力;

腾讯、京东、百度开放招聘技术岗,80%与AI相关……

大模型正在重构技术开发范式,传统CRUD开发模式正在被AI原生应用取代!

最残忍的是,业务面临转型,领导要求用RAG优化知识库检索,你不会;带AI团队,微调大模型要准备多少数据,你不懂;想转型大模型应用开发工程师等相关岗,没项目实操经验……这不是技术焦虑,而是职业生存危机!

曾经React、Vue等热门的开发框架,已不再是就业的金钥匙。如果认为会调用API就是懂大模型、能进行二次开发,那就大错特错了。制造、医疗、金融等各行业都在加速AI应用落地,未来企业更看重能用AI大模型技术重构业务流的技术人。

如今技术圈降薪裁员频频爆发,传统岗位大批缩水,相反AI相关技术岗疯狂扩招,薪资逆势上涨150%,大厂老板们甚至开出70-100W年薪,挖掘AI大模型人才!

在这里插入图片描述

不出1年 “有AI项目开发经验”或将成为前端人投递简历的门槛。

风口之下,与其像“温水煮青蛙”一样坐等被行业淘汰,不如先人一步,掌握AI大模型原理+应用技术+项目实操经验,“顺风”翻盘!

大模型目前在人工智能领域可以说正处于一种“炙手可热”的状态,吸引了很多人的关注和兴趣,也有很多新人小白想要学习入门大模型,那么,如何入门大模型呢?

下面给大家分享一份2025最新版的大模型学习路线,帮助新人小白更系统、更快速的学习大模型!

2025最新版ZEEKLOG大礼包:《AGI大模型学习资源包》免费分享**

一、2025最新大模型学习路线

一个明确的学习路线可以帮助新人了解从哪里开始,按照什么顺序学习,以及需要掌握哪些知识点。大模型领域涉及的知识点非常广泛,没有明确的学习路线可能会导致新人感到迷茫,不知道应该专注于哪些内容。

我们把学习路线分成L1到L4四个阶段,一步步带你从入门到进阶,从理论到实战。

L1级别:AI大模型时代的华丽登场

L1阶段:我们会去了解大模型的基础知识,以及大模型在各个行业的应用和分析;学习理解大模型的核心原理,关键技术,以及大模型应用场景;通过理论原理结合多个项目实战,从提示工程基础到提示工程进阶,掌握Prompt提示工程。

L2级别:AI大模型RAG应用开发工程

L2阶段是我们的AI大模型RAG应用开发工程,我们会去学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。

L3级别:大模型Agent应用架构进阶实践

L3阶段:大模型Agent应用架构进阶实现,我们会去学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造我们自己的Agent智能体;同时还可以学习到包括Coze、Dify在内的可视化工具的使用。

L4级别:大模型微调与私有化部署

L4阶段:大模型的微调和私有化部署,我们会更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调;并通过Ollama、vLLM等推理部署框架,实现模型的快速部署。

整个大模型学习路线L1主要是对大模型的理论基础、生态以及提示词他的一个学习掌握;而L3 L4更多的是通过项目实战来掌握大模型的应用开发,针对以上大模型的学习路线我们也整理了对应的学习视频教程,和配套的学习资料。

二、大模型经典PDF书籍

书籍和学习文档资料是学习大模型过程中必不可少的,我们精选了一系列深入探讨大模型技术的书籍和学习文档,它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础(书籍含电子版PDF)

三、大模型视频教程

对于很多自学或者没有基础的同学来说,书籍这些纯文字类的学习教材会觉得比较晦涩难以理解,因此,我们提供了丰富的大模型视频教程,以动态、形象的方式展示技术概念,帮助你更快、更轻松地掌握核心知识

四、大模型项目实战

学以致用 ,当你的理论知识积累到一定程度,就需要通过项目实战,在实际操作中检验和巩固你所学到的知识,同时为你找工作和职业发展打下坚实的基础。

五、大模型面试题

面试不仅是技术的较量,更需要充分的准备。

在你已经掌握了大模型技术之后,就需要开始准备面试,我们将提供精心整理的大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。


因篇幅有限,仅展示部分资料,需要点击下方链接即可前往获取

2025最新版ZEEKLOG大礼包:《AGI大模型学习资源包》免费分享

Read more

Stable Diffusion与Z-Image-Turbo部署对比:推理速度与显存占用评测

Stable Diffusion与Z-Image-Turbo部署对比:推理速度与显存占用评测 1. 为什么这场对比值得你花5分钟读完 你是不是也遇到过这样的情况: 想用AI画张图,结果等了快两分钟才出第一张预览; 好不容易跑起来,显存直接飙到98%,连浏览器都卡顿; 换了个提示词,画面崩得莫名其妙,文字渲染像乱码…… 这些问题,在Z-Image-Turbo出现之前,几乎是Stable Diffusion用户的日常。但最近,阿里通义实验室开源的Z-Image-Turbo,悄悄改写了“快”和“稳”的定义——它不是简单地提速,而是从模型结构、推理流程、内存调度三个层面重新设计了一套轻量级文生图范式。 这不是又一个“参数调优”的小改进,而是一次面向真实使用场景的工程重构:8步出图、16GB显存跑满、中英文提示词原生支持、Gradio界面开箱即用。我们实测了同一台A100(40GB)服务器上Stable Diffusion XL(SDXL)与Z-Image-Turbo的完整部署表现,重点盯住两个最影响体验的硬指标:端到端推理耗时和峰值显存占用。 下面不讲论文公式,不列训练细节,只给你

PaperZZ 降重 / 降 AIGC 功能:如何把 “AI 痕迹 + 高重复率” 拧成 “可通过知网 / 维普的原创文本”?——2026 届毕业生的学术合规指南

PaperZZ 降重 / 降 AIGC 功能:如何把 “AI 痕迹 + 高重复率” 拧成 “可通过知网 / 维普的原创文本”?——2026 届毕业生的学术合规指南

Paperzz-AI官网免费论文查重复率AIGC检测/开题报告/文献综述/论文初稿 (注:本文聚焦工具辅助学术写作的合规优化,所有内容需结合研究者原创思考使用,严格遵守学术诚信与院校规范) 一、论文提交前的 “双重焦虑”:你在为 “AI 痕迹 + 高重复率” 彻夜难眠? 论文提交前的崩溃,往往不是 “研究没做完”,而是卡在 “AI 生成痕迹被检测” 和 “重复率超标” 的双重困境里: * 用 AI 写的初稿,维普检测显示 AIGC 相似度 99.8%,被导师打回 “必须消除 AI 痕迹”; * 手动改了 3 遍,重复率从 35% 降到 28%,还是过不了学校 “≤20%” 的红线; * 改到最后,句子变得不通顺、专业术语全丢,

Llama-3.2-3B智能助手:Ollama部署实现个人知识管理+任务提醒

Llama-3.2-3B智能助手:Ollama部署实现个人知识管理+任务提醒 你有没有过这样的经历: 刚读完一篇好文章,想记下来却懒得整理; 会议里冒出三个待办事项,转头就忘掉两个; 收藏夹里躺着五十个“以后再看”,结果一年没点开过一次? 别急着自责——这不是你记性差,而是工具没跟上节奏。今天要聊的这个组合,可能就是你缺的那一块拼图:用 Ollama 一键拉起 Llama-3.2-3B,不装显卡、不配服务器、不写一行训练代码,就能在本地跑起一个真正懂你、记得住、提醒得准的轻量级智能助手。 它不是动辄几十GB的大模型玩具,也不是需要调参半天的实验品。它小(仅1.8GB模型体积)、快(M系列Mac上响应不到2秒)、稳(纯CPU运行无报错),最关键的是——它能真正嵌进你的日常流程里:自动归类笔记、提炼会议纪要、按优先级生成待办清单,甚至在你忘记时主动弹出提醒。 下面我们就从零开始,把这套系统搭起来,再手把手教会它怎么帮你管知识、盯任务。 1. 为什么是Llama-3.2-3B?

【Copilot配置性能优化】:让AI助手提速3倍的6项关键技术

第一章:Copilot配置性能优化的核心价值 在现代软件开发中,GitHub Copilot 作为一款基于人工智能的代码辅助工具,已深度集成至开发者日常流程。合理的配置与性能优化不仅提升代码生成的准确率,还能显著减少响应延迟,增强上下文理解能力,从而提高整体开发效率。 提升响应速度与代码相关性 通过调整 Copilot 的上下文感知范围和禁用非必要插件,可有效降低资源占用。例如,在 Visual Studio Code 中可通过以下设置优化性能: { // 启用仅当前文件上下文以减少处理负载 "github.copilot.advanced": { "editorContextLength": 50, // 控制上下文行数 "inlineSuggest.enabled": true // 启用内联建议提升流畅度 } } 该配置限制了模型读取的上下文长度,避免因大文件导致的延迟,同时启用内联建议使代码补全更自然。 减少误触发与资源消耗 * 关闭在低性能设备上自动触发补全功能 * 为特定语言(如 Markdown)禁用 Copilot 以节省内存