Llama 4 结果数据造假,Yann LeCun 接受 FT 采访爆料

Llama 4 结果数据造假,Yann LeCun 接受 FT 采访爆料

https://www.reddit.com/r/LocalLLaMA/comments/1q25070/lecun_says_llama_4_results_were_fudged_a_little/

FT 原文 https://drive.google.com/file/d/1wFy87TP7MJQDF1g0KA8IgZRtOx0jJUGE/view?usp=drivesdk

https://tech.slashdot.org/story/26/01/02/1449227/results-were-fudged-departing-meta-ai-chief-confirms-llama-4-benchmark-manipulation

Yann LeCun, Meta's outgoing chief AI scientist and one of the pioneers credited with laying the groundwork for modern AI, has acknowledged that the company's Llama 4 language model had its benchmark results manipulated before its April 2025 release. In an interview with the Financial Times, LeCun said the "results were fudged a little bit" and that the team "used different models for different benchmarks to give better results."

Llama 4 was widely criticized as a flop at launch, and the company faced accusations of gaming benchmarks to make the model appear more capable than it was. LeCun said CEO Mark Zuckerberg was "really upset and basically lost confidence in everyone who was involved" in the release.

Zuckerberg subsequently "sidelined the entire GenAI organisation," according to LeCun. "A lot of people have left, a lot of people who haven't yet left will leave." LeCun himself is departing Meta after more than a decade to start a new AI research venture called Advanced Machine Intelligence Labs. He described the new hires brought in for Meta's superintelligence efforts as "completely LLM-pilled" -- a technology LeCun has repeatedly called "a dead end when it comes to superintelligence."

Meta即将离任的首席AI科学家、被誉为现代AI奠基人之一的Yann LeCun承认,公司在2025年4月发布Llama 4语言模型前操纵了基准测试结果。这位图灵奖得主向英国《金融时报》透露,团队"对结果进行了小幅润色",且"针对不同基准测试使用了不同模型以呈现更好数据"。

Llama 4发布时因表现欠佳广受批评,Meta被指控通过操纵基准测试夸大模型能力。LeCun表示CEO马克·扎克伯格对此"极为震怒,基本上对参与该项目的所有人失去了信任"。据其透露,扎克伯格随后"边缘化了整个生成式AI部门",并预言"许多人已经离职,更多人员将陆续离开"。

在Meta任职十余年的LeCun即将创办名为"高级机器智能实验室"的新AI研究机构。他批评Meta为超级智能项目招募的新员工"完全沉迷于LLM技术"——这种被LeCun多次称为"通往超级智能的死胡同"的技术。

Yann LeCun calls Alexandr Wang 'inexperienced' and predicts more Meta AI employee departures

https://www.businessinsider.com/yann-lecun-alexandr-wang-criticism-inexperienced-meta-ai-future-2026-1

Read more

大学四年,我赌上全部的JS逆向,终究输给了AI的10秒

文章目录 * 春招:一场精心策划的“打脸现场” * 10秒,我的四年青春被AI按在地上摩擦 * 马路牙子上的崩溃:我的青春,是个笑话 * 身边的人都在起飞,只有我被留在原地 * 不甘,但也清醒:与AI“搭伙过日子” 大学四年,我把自己活成了一台“JS逆向专用挖掘机”——能赌的、能拼的、能扔的,全他妈一股脑押在了这玩意儿上。没有Plan B,没有退路,我一个在二本院校里挣扎的普通学生,除了死磕,除了把这门技术嚼碎了咽进肚子里,还能有什么资本,跟那些名校出身的“天之骄子”掰手腕? 大一下学期,我彻底与“正常大学生活”决裂,一头扎进网吧的烟雾缭绕和实验室的寂静里,《JavaScript 逆向与爬虫实战》被我翻得封皮掉渣、内页卷边,活像一本被传了十代的武林秘籍。笔记写了满满四大本,每一页都画满了断点、混淆逻辑和补环境的坑,密密麻麻得像蚂蚁搬家的路线图。 别人的大学,是逃课开黑、约学妹看电影,是周末捧着奶茶吹晚风,

旧电脑秒变 AI 员工:OpenClaw 本地部署教程(含环境配置 + 插件开发 + 常见坑)

旧电脑秒变 AI 员工:OpenClaw 本地部署教程(含环境配置 + 插件开发 + 常见坑)

前言 本文基于最新OpenClaw版本编写,适配电脑低配置场景(最低2vCPU+2GiB内存+40GiB SSD),兼容Windows 10/11(优先WSL2)、Ubuntu 20.04+系统,全程纯操作指令,覆盖环境配置、本地部署、插件开发、高频坑排查。核心解决部署卡顿、国内网络适配、插件开发无思路、报错无法排查四大痛点,全程适配国内网络(国内镜像源)、国内大模型(通义千问、阿里云百炼等),无需海外代理,可稳定运行实现自动化办公(文件处理、IM对接、任务调度等)。 一、前置准备(适配优化) 1.1 硬件要求(最低适配) * CPU:Intel i3 4代+/AMD Ryzen 3 2000+(支持虚拟化,

2026最新 Python+AI 入门指南:0基础也能快速上手,避开90%新手坑

2026最新 Python+AI 入门指南:0基础也能快速上手,避开90%新手坑

🎁个人主页:User_芊芊君子 🎉欢迎大家点赞👍评论📝收藏⭐文章 🔍系列专栏:AI 文章目录: * 【前言】 * 一、为什么2026年入门AI,首选Python?(新颖热点解读) * 二、Python+AI入门必备:前提+环境搭建(10分钟搞定) * 2.1 核心前提(不用啃硬骨头) * 2.2 环境搭建(Windows/Mac通用,避版本冲突) * 三、Python+AI入门实战:3个热门案例(附完整代码) * 案例1:数据处理(AI入门必备,80%AI开发第一步) * 案例2:机器学习入门(线性回归,房价预测) * 案例3:2026热门·大模型对接(LangChain快速调用) * 四、

【AI】谷歌TurboQuant算法:内存占用减少至少6倍

谷歌在2026年3月25日发布了一项名为 TurboQuant 的突破性压缩算法,它可以在不损失任何模型精度的前提下,将AI大模型运行时的关键内存占用(KV缓存)减少至少6倍,同时将推理速度提升最高8倍。 这一技术突破引发了硅谷和华尔街的广泛关注,甚至让美光、西部数据等存储芯片巨头的股价应声下跌。下面为你详细拆解这项技术: 🚀 TurboQuant核心技术速览 技术指标具体数据说明内存压缩比至少6倍将KV缓存压缩至3-bit精度,相比传统16/32-bit存储推理加速最高8倍在H100 GPU上4-bit TurboQuant vs 32-bit未量化基线精度影响零损失在"大海捞针"等长上下文测试中保持完美分数部署门槛无需训练无需预训练或微调,即插即用应用范围KV缓存压缩 + 向量搜索解决推理内存瓶颈,同时提升语义搜索引擎效率 🔧 核心技术原理:两步"绝杀" 要理解TurboQuant为什么重要,先要明白它解决的是什么问题。大模型推理时,会把历史信息临时存在 KV缓存 中以便快速调用。当上下文窗口从4K扩展到百万级时,KV缓存会迅速膨胀,成为AI推理最大的内存瓶颈