尤雨溪官宣:前端新工具来了,比Prettier快45倍!

尤雨溪官宣:前端新工具来了,比Prettier快45倍!

🚀 尤雨溪的"神秘包裹"

10月19日,Vue之父尤雨溪在Twitter上晒了一张截图,前端圈瞬间炸锅:

在这里插入图片描述

格式化太慢?Lint卡到爆?不,我们全都要!

这就好比你一直骑共享单车上班,突然有人送你一辆特斯拉——还是带自动驾驶的!


📊 性能对比:这是开了外挂吧?

oxfmt:格式化界的"闪电侠"

🐢 Prettier:格式化1000个文件 = 45秒(够泡杯咖啡) 🚀 oxfmt:格式化1000个文件 = 1秒(咖啡还没反应过来) 速度提升:45倍! 

对比Biome:快2-3倍
对比Prettier:快45倍
你的感受:从"等等等"到"好了?!"

oxlint:代码检查界的"透视眼"

🐌 ESLint:检查1000个文件 = 50-100秒(刷个短视频的时间) ⚡ oxlint:检查1000个文件 = 1秒(眨个眼而已) 速度提升:50-100倍! 

已完美兼容:Vite、Vue、React、Next.js、AntDesign


🔧 安装指南:比点外卖还简单

快速体验(尝鲜版)

# 格式化文件 npx oxfmt@latest src/**/*.{js,ts,jsx,tsx}# 检查代码 npx oxlint@latest src/**/*.{js,ts,jsx,tsx}

就像临时借邻居的电钻,用完就还,零负担!

正式安装(长期伴侣)

npminstall -D oxlint oxfmt 

然后在 package.json 里配置:

{"scripts":{"lint":"oxlint src/","lint:fix":"oxlint --fix src/","format":"oxfmt src/","format:check":"oxfmt --check src/"}}

🎛️ 配置说明:老工具的配置直接搬

oxfmt配置(.oxfmtrc.json)

{"printWidth":80,"tabWidth":2,"semi":true,"singleQuote":true}

好消息:你的 .prettierrc 改个名就能用!
就像:从iPhone换到iPhone,数据一键迁移。

oxlint配置(.oxlintrc.json)

{"rules":{"no-console":"warn","no-debugger":"error","prefer-const":"error"}}

ESLint用户:80%的规则配置直接复制粘贴!


🛠️ 迁移指南:换工具不换习惯

从Prettier迁移(3步走)

# 1. 卸载旧工具npm uninstall prettier # 2. 安装新工具npminstall -D oxfmt # 3. 改个名字mv .prettierrc .oxfmtrc.json 

难度:⭐(把"prettier"换成"oxfmt")

从ESLint迁移(3步走)

# 1. 卸载旧工具npm uninstall eslint # 2. 安装新工具npminstall -D oxlint # 3. 迁移配置# 复制.eslintrc规则到.oxlintrc.json

难度:⭐⭐(配置稍微调整一下)


⚙️ 技术原理:为什么这么快?

Rust + WASM = 涡轮增压

Rust性能

传统工具:JavaScript单线程,像一个工人在搬砖
OXC工具:Rust多线程,像施工队同时作业

核心优势

  • Rust编译:零成本抽象,性能拉满
  • 并行处理:多核CPU火力全开
  • 智能缓存:只处理变更的文件

💰 实际收益:时间就是金钱

大型项目(1000+文件)

每天格式化次数:20次 Prettier耗时:20 × 45秒 = 15分钟/天 oxfmt耗时:20 × 1秒 = 0.3分钟/天 每天节省:14.7分钟 每年节省:90小时(≈ 11个工作日!) 

相当于:每年多休两周假!

CI/CD流水线

ESLint检查:100秒 oxlint检查:1秒 每次CI节省:99秒 每天CI 50次:每天节省82分钟 

运维小哥:终于不用盯着进度条发呆了!


🎯 适用场景:谁最需要?

✅ 强烈推荐

  • 大型企业项目:代码库庞大,格式化等待痛苦
  • 团队协作项目:CI/CD频繁,性能提升明显
  • 低配电脑用户:拯救你的老笔记本

⚠️ 建议观望

  • 超小项目:10个文件,快慢差别不大
  • 重度定制规则:等待更多插件支持

📝 注意事项:平滑过渡

渐进式迁移策略

1. 个人分支试用 → 2. 对比输出差异 → 3. 团队评审 → 4. 正式上线 

就像:先试吃再买单,不满意可以退货!

兼容性检查

  • ✅ 输出格式与Prettier高度一致
  • ✅ 支持大部分ESLint常用规则
  • ✅ VS Code、WebStorm完美支持

🎉 总结:新时代的号角

OXC工具 = 性能怪兽 + 迁移友好 + 配置简单

下一步行动清单

  1. 立即试用npx oxfmt@latest 体验秒级格式化
  2. 团队评估:在测试分支对比差异
  3. 制定计划:根据项目情况逐步迁移

从今天开始

  • ❌ 告别"格式化中…"的漫长等待
  • ✅ 迎接"格式化完成"的瞬间快感

前端开发的电动工具时代,正式开启! 🚀


Read more

一文通透OpenVLA——在Prismatic VLM(SigLIP、DinoV2、Llama 2)的架构上:基于“下一个token预测技术”预测离散化动作

一文通透OpenVLA——在Prismatic VLM(SigLIP、DinoV2、Llama 2)的架构上:基于“下一个token预测技术”预测离散化动作

前言 当对机器人动作策略的预测越来越成熟稳定之后(比如ACT、比如扩散策略diffusion policy),为了让机器人可以拥有更好的泛化能力,比较典型的途径之一便是基于预训练过的大语言模型中的广泛知识,然后加一个policy head(当然,一开始背后的模型比较简单,比如有用LSTM或MLP——RoboFlamingo) 再之后,便出来了越来越多成熟稳定的专门的VLA模型,比如OpenVLA,再比如近期介绍过过的π0——用于通用机器人控制的VLA模型:一套框架控制7种机械臂(基于PaliGemma和流匹配的3B模型) 1. π0的意义在于,首次用同一套策略/算法操作不同机器人/机械臂,这种基于机器人大模型的「预训练-微调」模式,很快会越来越多(犹如此前大模型革命NLP 其次CV等各模态,目前到了robot领域),算是代表了通用机器人的核心发展方向 2. 且π0 比英伟达的HOVER早一点,当然,同时期的RDT GR2也有这个潜力的,期待这两 后续的更新 一个多月前(本文首发于25年1月),有朋友曾说,一个月内,π0 会开源来着,当时虽然觉得不太可能,但还是抱着期待,可还

在Android设备上利用Termux安装llama.cpp并启动webui

llama.cpp没有发布官方aarch64的二进制,需要自己编译,好在Termux已经有编译好的包可用。 按照文章在安卓手机上用vulkan加速推理LLM的方法, 1.在Termux中安装llama-cpp软件 ~ $ apt install llama-cpp Reading package lists... Done Building dependency tree... Done Reading state information... Done E: Unable to locate package llama-cpp ~ $ apt update Get:1 https://mirrors.tuna.tsinghua.edu.cn/termux/apt/termux-main stable InRelease [14.0 kB] Get:2 https://mirrors.

蓝耘 × 通义万相 2.1,AIGC 双雄合璧,点燃数字艺术新引擎

蓝耘 × 通义万相 2.1,AIGC 双雄合璧,点燃数字艺术新引擎

目录 一、本篇背景: 二、蓝耘与通义万相 2.1 概述: 2.1蓝耘简介: 2.2通义万相 2.1 简介: 注册并使用蓝耘元生代智算平台: 完成通义万相 2.1部署并调用:  个人代码调用过程及感受: 环境准备: 代码实现: 保存生成的图像: 三、蓝耘与通义万相 2.1 结合的优势: 3.1强大的计算力支撑: 3.2高效的数据处理与传输: 3.3定制化与优化: 四、蓝耘调用通义万相 2.1 API 的实际代码演示: 4.1环境搭建: 4.2图像生成代码示例: 4.3文本生成代码示例: 五、蓝耘与通义万相 2.1

从零开始:AIGC中的变分自编码器(VAE)代码与实现

从零开始:AIGC中的变分自编码器(VAE)代码与实现

个人主页:chian-ocean 文章专栏 深入理解AIGC中的变分自编码器(VAE)及其应用 随着AIGC(AI-Generated Content)技术的发展,生成式模型在内容生成中的地位愈发重要。从文本生成到图像生成,变分自编码器(Variational Autoencoder, VAE)作为生成式模型的一种,已经广泛应用于多个领域。本文将详细介绍VAE的理论基础、数学原理、代码实现、实际应用以及与其他生成模型的对比。 1. 什么是变分自编码器(VAE)? 变分自编码器(VAE)是一种生成式深度学习模型,结合了传统的概率图模型与深度神经网络,能够在输入空间和隐变量空间之间建立联系。VAE与普通自编码器不同,其目标不仅仅是重建输入,而是学习数据的概率分布,从而生成新的、高质量的样本。 1.1 VAE 的核心特点 * 生成能力:VAE通过学习数据的分布,能够生成与训练数据相似的新样本。 * 隐空间结构化表示:VAE学习的隐变量分布是连续且结构化的,使得插值和生成更加自然。 * 概率建模:VAE通过最大化似然估计,能够对数据分布进行建模,并捕获数据的复杂特性。