Llama 4 结果数据造假,Yann LeCun 接受 FT 采访爆料

Llama 4 结果数据造假,Yann LeCun 接受 FT 采访爆料

https://www.reddit.com/r/LocalLLaMA/comments/1q25070/lecun_says_llama_4_results_were_fudged_a_little/

FT 原文 https://drive.google.com/file/d/1wFy87TP7MJQDF1g0KA8IgZRtOx0jJUGE/view?usp=drivesdk

https://tech.slashdot.org/story/26/01/02/1449227/results-were-fudged-departing-meta-ai-chief-confirms-llama-4-benchmark-manipulation

Yann LeCun, Meta's outgoing chief AI scientist and one of the pioneers credited with laying the groundwork for modern AI, has acknowledged that the company's Llama 4 language model had its benchmark results manipulated before its April 2025 release. In an interview with the Financial Times, LeCun said the "results were fudged a little bit" and that the team "used different models for different benchmarks to give better results."

Llama 4 was widely criticized as a flop at launch, and the company faced accusations of gaming benchmarks to make the model appear more capable than it was. LeCun said CEO Mark Zuckerberg was "really upset and basically lost confidence in everyone who was involved" in the release.

Zuckerberg subsequently "sidelined the entire GenAI organisation," according to LeCun. "A lot of people have left, a lot of people who haven't yet left will leave." LeCun himself is departing Meta after more than a decade to start a new AI research venture called Advanced Machine Intelligence Labs. He described the new hires brought in for Meta's superintelligence efforts as "completely LLM-pilled" -- a technology LeCun has repeatedly called "a dead end when it comes to superintelligence."

Meta即将离任的首席AI科学家、被誉为现代AI奠基人之一的Yann LeCun承认,公司在2025年4月发布Llama 4语言模型前操纵了基准测试结果。这位图灵奖得主向英国《金融时报》透露,团队"对结果进行了小幅润色",且"针对不同基准测试使用了不同模型以呈现更好数据"。

Llama 4发布时因表现欠佳广受批评,Meta被指控通过操纵基准测试夸大模型能力。LeCun表示CEO马克·扎克伯格对此"极为震怒,基本上对参与该项目的所有人失去了信任"。据其透露,扎克伯格随后"边缘化了整个生成式AI部门",并预言"许多人已经离职,更多人员将陆续离开"。

在Meta任职十余年的LeCun即将创办名为"高级机器智能实验室"的新AI研究机构。他批评Meta为超级智能项目招募的新员工"完全沉迷于LLM技术"——这种被LeCun多次称为"通往超级智能的死胡同"的技术。

Yann LeCun calls Alexandr Wang 'inexperienced' and predicts more Meta AI employee departures

https://www.businessinsider.com/yann-lecun-alexandr-wang-criticism-inexperienced-meta-ai-future-2026-1

Read more

鸿蒙金融理财全栈项目——生态合作、用户运营、数据变现

鸿蒙金融理财全栈项目——生态合作、用户运营、数据变现

《鸿蒙APP开发从入门到精通》第19篇:鸿蒙金融理财全栈项目——生态合作、用户运营、数据变现 📊🌍💰 内容承接与核心价值 这是《鸿蒙APP开发从入门到精通》的第19篇——生态合作、用户运营、数据变现篇,100%承接第18篇的风险控制、合规审计、产品创新架构,并基于金融场景的生态合作、用户运营、数据变现要求,设计并实现鸿蒙金融理财全栈项目的生态合作、用户运营、数据变现功能。 学习目标: * 掌握鸿蒙金融理财项目的生态合作设计与实现; * 实现金融机构合作、支付渠道合作、数据分析合作; * 理解用户运营在金融场景的核心设计与实现; * 实现用户增长、用户留存、用户转化; * 掌握数据变现在金融场景的设计与实现; * 实现数据服务、数据产品、数据变现; * 优化金融理财项目的用户体验(生态合作、用户运营、数据变现)。 学习重点: * 鸿蒙金融理财项目的生态合作设计原则; * 用户运营在金融场景的应用; * 数据变现在金融场景的设计要点。 一、 生态合作基础 🎯 1.1 生态合作定义 生态合作是指金融理财项目与其他金融机构、

By Ne0inhk

Flutter 三方库 encrypter_plus 的鸿蒙化适配指南 - 打造工业级多重加密隔离、安全存储实战、鸿蒙级数据隐私专家

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 encrypter_plus 的鸿蒙化适配指南 - 打造工业级多重加密隔离、安全存储实战、鸿蒙级数据隐私专家 在鸿蒙跨平台应用处理用户核心资产、敏感通讯或离线隐私数据库时,单一的加密手段往往难以应对复杂的逆向工程攻击。我们需要一套功能全面、算法严谨且易于在鸿蒙端进行多层加固的方案。今天我们要深度解析的 encrypter_plus——一个集成了 AES、RSA、Salsa20 等多种主流算法的增强型加密工具集,正是帮你构建“数据保险柜”的核心组件。 前言 encrypter_plus 是对经典 encrypt 库的功能增强与性能优化版。它提供了更直观的操作符抽象和更健壮的填充(Padding)机制。在鸿蒙端项目中,利用它你可以轻松实现前端文件加密、服务端通讯非对称握手以及本地敏感配置的字段级混淆,确保即使用户设备的物理文件被导出,数据依然处于不可读的“致密状态”。 一、原理解析 / 概念介绍 1.1

By Ne0inhk
终于把LLaMA 2跑起来了,然后呢?本地大模型部署的残酷真相!

终于把LLaMA 2跑起来了,然后呢?本地大模型部署的残酷真相!

“终于把LLaMA 2跑起来了!” 深夜11点,程序员小林在朋友圈晒出电脑屏幕截图——黑色命令行窗口里,一行行代码滚动后,本地大模型吐出了第一句回答。他兴奋地刷新着评论区,看着“大佬”“技术牛”的赞美,感觉自己摸到了AI时代的“核心门槛”。 可这份热情没能撑过一个月。如今,那台专门升级了显卡的电脑,大模型程序静静躺在硬盘深处,偶尔开机,也只是为了清理缓存。“生成一句话要等10秒,写周报还能把部门名写错,不如直接用GPT-4 API,3秒出结果还靠谱。”小林的话,道出了无数本地部署玩家的心声。 2023年以来,“本地部署大模型”成了AI圈的热门话题。从技术博主的“手把手教程”,到论坛里的“配置交流帖”,仿佛人人都能拥有一台“私人AI服务器”。但热闹背后,是一场无声的“弃坑潮”:某技术社区调研显示,70%的个人用户在部署完成后3个月内停止使用,曾经的“技术勋章”,最终沦为“电子垃圾”。 这股热情的消退,绝非偶然。当“掌控AI”

By Ne0inhk

Windows系统如何快速部署llama-cpp-python:AI模型本地推理终极指南

Windows系统如何快速部署llama-cpp-python:AI模型本地推理终极指南 【免费下载链接】llama-cpp-pythonPython bindings for llama.cpp 项目地址: https://gitcode.com/gh_mirrors/ll/llama-cpp-python 在Windows平台部署AI模型推理框架时,开发者常面临编译环境复杂、依赖库缺失、性能优化困难等挑战。本指南采用"痛点分析→配置方案→实践验证→性能调优"的四段式结构,帮助你快速搭建稳定高效的本地AI推理环境。 痛点分析:识别Windows部署核心障碍 编译器配置难题 为什么需要:Windows系统默认不包含C++编译工具链,而llama-cpp-python需要编译底层的C++代码 如何操作:你可以选择以下任一方案 * 简化方案:使用预编译版本,避免编译过程 * 详细方案:安装MinGW或Visual Studio获取完整编译能力 动态链接库缺失 为什么需要:llama.cpp依赖多个底层库,在Windows环境容易出现DLL文件缺失

By Ne0inhk