字节全员涨薪 35%,L3 年薪 150 万:前端人的“贫富差距”,正在被马太效应彻底拉大...

字节全员涨薪 35%,L3 年薪 150 万:前端人的“贫富差距”,正在被马太效应彻底拉大...

大家好,我是 Sunday。

昨天是 12 月 19 号,周五。原本应该是一个等待放假的好日子😂。但是!整个互联网圈子,尤其是技术圈,被一封邮件彻底炸醒了。

相信大家在群里、朋友圈里都刷屏了:字节跳动全员涨薪。

说实话,当看到这个消息的时候,我就在想:“我当年咋没遇到这么好的时候啊?”

现在很多同学总在说“寒冬”,总在说“降本增效”,总觉得大环境不行了。但字节跳动反手就给了这个观点一记响亮的耳光:

薪资投入提升 35%,调薪投入提升 1.5 倍,L3 职级(原 2-2,大致相当于之前的 阿里 P7)年薪拉高到 90w-150w

这说明了什么?

这说明,这个行业从来就不缺钱,缺的是值得这笔钱的人

今天这篇文章,我想把那些新闻通稿撇在一边,单纯从一个技术人、一个教育者的角度,和大家聊聊这背后的“底层逻辑”,以及作为普通前端,我们该如何接住这泼天的富贵。

市场永远是【赢家通吃】

Sunday 在 6 月 的时候就发过一篇文章 6 月的招聘市场,两极分化严重…
.

我在这篇文章中提到 目前市场两极分化严重

  • 一边是:中小厂压榨式招聘
  • 另一边是:大厂实习生薪资都破万了

同时,如果大家仔细去看那些 网上很多反馈今年就业行情不好的,会发现这些 大部分都是在中小厂横跳的人

那么为什么会出现这种情况呢?其实就是标题所描述的一样 赢家通吃

而这种赢家通吃所带来的 技术行业的“马太效应”,在 2025 年的年尾,被字节跳动推向了极致。

马太效应(Matthew Effect)是一种强者愈强、弱者愈弱的社会现象,指在资源分配中,原本占优的个体或组织更容易获得更多资源,从而优势累积;而处于劣势的则可能失去更多,即“凡有的,还要加给他,叫他有余;没有的,连他所有的,也要夺过来”的“赢家通吃”局面。

有点像道德经中所提到的 人之道,损不足以奉有余

兄弟们,这太恐怖了。

这也解释了为什么在现在的市场里看到的现象,如此割裂。

  • 一边是:在小厂横跳的同学,在抱怨面试难,简历都不通过,好不容易通过了面试,薪资还被压的很厉害
  • 另外一边是:进入中大厂的同学,从来没有过这样的抱怨,薪资还有了大幅度的提升

就以 训练营 今年的校招数据为例,进字节的校招生,最高薪资总包达到了 61.5 万。哪怕是保底的,也没有低于 40 万 的。感兴趣的同学可以查看这里 训练营 26 届校招数据.

大家想一想,一个刚毕业的学生,凭什么拿 60 多万?

  • 是因为他们学校比你强?不一定。
  • 是因为他们比你聪明?也不见得。
  • 是因为他们运气好?运气确实是一部分,但运气接不住 60 万的年薪。

根本原因在于:他们进到了中大厂,而不是在小厂中反复横跳

别再用“5 年经验”骗自己了

顺着刚才的话题,我们得聊点扎心的。

为什么我说“在小厂反复横跳”是职业生涯的毒药?

很多同学来找我看简历,经常会说:“Sunday 老师,我有 5 年前端经验,做过几十个项目,为什么连大厂的面试机会都没有?”

我看了一眼他的项目经历,全是:

  • 某某后台管理系统(Vue + Element || React + AntD)
  • 某某企业官网(jQuery/原生)
  • 某某小程序(简单的展示类)

这就引出了一个非常残酷的现实:在资本眼中,只有具备“复利效应”的经验,才叫经验。

在小厂,你的工作往往是“此时此刻的交付”。老板只在乎你能不能今天把这个页面切出来,能不能明天把这个接口调通。你不需要考虑高并发,不需要考虑极致的 SEO,更不需要考虑系统的扩展性。

你一直在做 CRUD(增删改查)。

这种工作,做 1 年和做 5 年,本质上没有区别。当你的技术栈停留在“熟练使用 API”的层面时,你在人才市场上的估值,早在 3 年前就见顶了。

而反观那些拿了 60W+ offer 的校招生,或者刚晋升的大厂员工,他们在做什么?

他们在解决复杂场景下的工程问题,他们在思考如何用技术驱动业务增长,他们在研究如何让 AI 真正落地到生产环境

这就是“赢家通吃”的残酷真相:大厂用高薪垄断了最具挑战性的业务场景,从而培养出了最具竞争力的人才;而小厂只能在低端业务里内卷,导致人才技能退化。

如果你想打破这个死循环,唯一的办法就是:强行给自己“升维”。

2026 年,前端的“版本答案”变了

面对字节这种“高薪抢人”的态势,作为普通前端,如果你还守着传统的“前端三剑客”,大概率连简历筛选都过不去。

大家必须意识到,前端岗位的定义已经被重写了。

我特意复盘了今年训练营里拿了大厂 Offer 的同学的简历,发现了一个惊人的共性。在面试官眼里,他们根本不是“写页面的”,而是 “应用工程师”,即:如何通过技术来为业务赋能,从而达到更好的商业化目的

现在的面试官,尤其是字节、阿里这种大厂的面试官,他们想看到的是什么?

第一,是全栈落地的能力

不要再说“我只会写前端,后端不会”。在 Node.js 生态如此成熟的今天,BFF(Backend for Frontend)层、SSR(服务端渲染)、甚至独立的微服务,都是前端必须掌控的疆域。

掌握这些并不一定要你在工作中进行开发,而是有一个可以 站在全局来看,来看业务 的能力

第二,是“真·AI”整合能力

注意,我说的不是调一个 OpenAI 的接口写个 Hello World。那是玩具。

企业需要的是:你能理解 LLM(大模型)的幻觉问题吗?你会用 RAG(检索增强生成)构建私有知识库吗?你能用 LangChain 编排复杂的 Agent 任务流吗?

第三,是商业化思维

你的代码是为了“上线”写的,还是为了“用户”写的?你能处理 100 并发和 10000 并发下的不同性能瓶颈吗?

这才是 L3 级别,或者说 60w+ 年薪人才的画像。

看到这里,我知道肯定有人会焦虑:“Sunday,我也想学这些,但我公司全是老项目,根本没机会碰 AI,全是 CRUD,我该怎么办?”

这是一个死循环:没项目 -> 进不去好公司 -> 没机会接触新技术 -> 没项目。

为了帮大家打破这个死循环,半年前,我做了一个决定。

既然环境不给机会,那我们就自己造一个“真战场”

我要带教研团队做一个项目。

这个项目不能是那种网上随便一搜一大把的“仿某某商城”、“仿某某头条”。那种 Demo 级别的玩具,骗骗自己还行,骗不过字节那些“人精”面试官。

我要做一个“真·商业级”的项目。

什么是商业级?

得有人用,得有数据,得经过市场的毒打,得产生真实的商业价值。

经过半年的闭关研发、上线运营、不断迭代,今天,我终于可以底气十足地把它拿出来了。

如果你关注我的动态,应该知道这个项目。目前它已经完成了商业化运营,后台数据显示:

  • 注册用户: 突破 30,000+
  • 日活跃用户(DAU): 稳定在 1,000+

这不仅是一个教学项目,它是一个活着的产品。而马上,这个项目的全套代码和课程,将作为训练营的全新实战项目上线。

为了对标字节的高薪标准,我在技术选型上没有哪怕一丝妥协,全部采用 2026 年最顶级的全栈方案

1. 前端架构:NuxtJS + Tailwindcss

为什么不用纯 Vue SPA?

因为商业项目必须考虑 SEO首屏性能(LCP)。NuxtJS 提供的 SSR(服务端渲染)能力,是目前 C 端产品的标准答案。

配合 Tailwindcss 的原子化开发模式,我们不仅要教你写代码,更要教你大厂级别的“开发效率规范”。

2. 后端架构:NestJS + MongoDB

如果你想从前端进阶到全栈,NestJS 是进入企业级后端开发的唯一正解。

它太像 Java Spring 了——严谨的依赖注入、模块化设计、装饰器路由。学会了 NestJS,你不仅学会了 Node 后端,你更学会了后端架构思维

MongoDB,是 AI Native 应用的天作之合。面对 AI 生成的非结构化数据,只有 NoSQL 才能接得住这种灵活的 Schema。

3. 核心灵魂:LangChain + AI 深度集成

这是最让我骄傲,也是能让你在面试中绝杀的部分。

在这个项目里,我们拒绝“套壳”,而是构建了一套完整的 AI 业务流:

  • RAG 架构实战:如何把私有文档向量化,存入数据库,并检索喂给 AI,让它变得“懂业务”。
  • LangChain 编排:如何管理复杂的 Prompt,如何设计 Chain 的流转,如何实现上下文记忆。
  • 流式响应(Stream):像 ChatGPT 那样一个字一个字吐出来的打字机效果,到底是怎么从后端 Stream 推送到前端,并进行渲染的。

风起的时候,你得在场

写到这里,我想起前段时间一个同学问我:“Sunday 老师,现在学 AI 是不是晚了?”

我想把字节邮件里的那句话送给他,也送给在座的各位:“什么时候加入都不晚。”

2025 年就要过去了。字节跳动的全员涨薪,不仅是给他们自家员工的礼物,更是给整个行业的一针强心剂。它告诉我们:技术并没有贬值,贬值的是陈旧的技术。

现在的技术圈,正在经历一次巨大的洗牌。

以前,你会写个组件,你就能拿 20k。

现在,你会写组件,可能连面试机会都没有。但如果你能独立搞定一个 AI 应用的闭环,你能拿 50k,甚至更多。

简历上写这一行字,比你背一万道八股文都管用:

“独立负责并落地了一个日活过千的商业级 AI 全栈项目,基于 RAG 技术解决了 xxx 问题,使用 NuxtJS 提升了 50% 的首屏加载速度…”

我不希望大家在下一次“马太效应”显现的时候,依然是那个被“损不足”的弱者。

我希望下次大厂发涨薪邮件的时候,你也身在其中。

新项目即将在训练营上线。如果你不想错过这波技术红利,如果你也想在明年的金三银四惊艳面试官:那就一起来聊聊你的破局之路吧。

Read more

【前端】前端面试题

【前端】前端面试题

前端面试题 闭包 1. 定义: 闭包(Closure) 是指一个函数能够访问并记住其外部作用域中的变量,即使外部函数已经执行完毕。闭包由两部分组成: * 一个函数(通常是内部函数)。 * 该函数被创建时所在的作用域(即外部函数的变量环境) functionouter(){let count =0;// 外部函数的变量functioninner(){ count++;// 内部函数访问外部变量 console.log(count);}return inner;}const counter =outer();counter();// 输出 1counter();// 输出 2 2. 闭包的核心原理 * 作用域链:函数在定义时,会记住自己的词法环境(即外部作用域)。当内部函数访问变量时,会沿着作用域链向上查找。 * 变量持久化:闭包使得外部函数的变量不会被垃圾回收,因为内部函数仍持有对它们的引用 3. 闭包的常见用途 3.1 私有变量封装 通过闭包隐藏内部变量,

Linux 下 Tomcat 结合内网穿透 实现 Web 应用公网访问

Linux 下 Tomcat 结合内网穿透 实现 Web 应用公网访问

前言 在日常的 Web 开发与测试中,常常会遇到这样的困扰:本地部署好的 Java Web 项目,只能在局域网内访问,想要让异地的同事协作调试、给客户演示功能,或是外出时远程查看项目运行状态,往往需要繁琐的公网 IP 配置、端口映射,甚至要依赖云服务器部署。 而有一种实用的内网穿透功能,能轻松打破这种网络限制 —— 它可以将本地运行的服务,无需复杂配置就能映射到公网,生成可全球访问的地址,让本地的 Tomcat 服务随时被外部设备访问。 今天我们要分享的,就是如何借助这一功能,搭配经典的 Tomcat 服务器,在 Linux 系统中快速实现 Web 应用的公网访问,整个过程简单易操作,几分钟就能完成配置,解决开发和演示中的网络访问难题。 1.在CentOs7上安装OpenJDK 在已安装套件中查找含有java字符串的文件: rpm-qa|grepjava 若没有安装则开始安装吧! 查询yum中存在的JDK版本: yum list |grep java-11

SpringBoot+Vue +常规应急物资管理系统平台完整项目源码+SQL脚本+接口文档【Java Web毕设】

SpringBoot+Vue +常规应急物资管理系统平台完整项目源码+SQL脚本+接口文档【Java Web毕设】

摘要 近年来,自然灾害和突发公共事件频发,应急物资管理成为保障社会稳定的重要环节。传统物资管理方式依赖人工操作,效率低下且易出错,难以满足快速响应和精准调配的需求。随着信息技术的发展,数字化管理平台成为解决这一问题的有效途径。应急物资管理系统通过信息化手段实现物资的入库、出库、库存监控和调度优化,提升应急响应能力。该系统能够整合多方资源,实现物资动态跟踪和数据分析,为决策提供科学依据。关键词:应急物资管理、数字化平台、库存监控、调度优化、快速响应。 本系统基于SpringBoot和Vue技术栈开发,采用前后端分离架构,确保系统的高效性和可扩展性。后端使用SpringBoot框架实现RESTful API,结合MyBatis进行数据库操作,提供稳定的数据服务。前端采用Vue.js框架,结合Element UI组件库,构建用户友好的交互界面。系统功能包括物资分类管理、库存预警、采购计划、分配调度和数据分析模块。通过角色权限控制,实现管理员、仓库人员和普通用户的多级操作权限。系统还提供数据可视化功能,便于实时监控物资状态。关键词:SpringBoot、Vue.js、库存预警、权限控制、数

Instruct vs Thinking模式怎么选?Qwen3-VL-WEBUI提供最佳实践路径

Instruct vs Thinking模式怎么选?Qwen3-VL-WEBUI提供最佳实践路径 在多模态大模型逐步渗透到智能办公、自动化测试、教育辅助和内容生成等关键场景的今天,用户对AI能力的要求早已超越“能看图说话”的初级阶段。真正决定体验上限的是:面对不同复杂度任务时,模型能否做出最优响应策略? 阿里通义实验室推出的 Qwen3-VL 系列模型,通过内置 Instruct 与 Thinking 两种推理模式,首次将“快反应”与“深思考”系统化地集成于同一技术框架下。而基于该模型构建的镜像 Qwen3-VL-WEBUI,不仅实现了开箱即用的部署体验,更提供了清晰的工程化路径,帮助开发者精准匹配应用场景。 本文将结合 Qwen3-VL-WEBUI 镜像的实际能力,深入剖析 Instruct 与 Thinking 模式的本质差异、适用边界及协同机制,并给出可落地的选型建议与优化方案。 1. 技术背景:为何需要双模式设计? 传统多模态模型往往采用单一架构处理所有输入——无论问题是“这张图里有什么?”还是“请分析视频中人物行为背后的动机”,都走相同的推理流程。