从 Llama 到 Avocado:Meta 转向中的 AI 战略引发内部困惑

从 Llama 到 Avocado:Meta 转向中的 AI 战略引发内部困惑

  每周跟踪AI热点新闻动向和震撼发展 想要探索生成式人工智能的前沿进展吗?订阅我们的简报,深入解析最新的技术突破、实际应用案例和未来的趋势。与全球数同行一同,从行业内部的深度分析和实用指南中受益。不要错过这个机会,成为AI领域的领跑者。点击订阅,与未来同行! 订阅:https://rengongzhineng.io/

Zuckerberg 曾经对 Llama 充满信心,如今却只字未提

Meta CEO 马克·扎克伯格曾在去年高调宣称,公司的 Llama 大模型系列将成为“业界最先进的模型”,并“把 AI 的益处带给所有人”。

今年 1 月财报会议上,他仍大篇幅谈论 Llama,但在 10 月财报电话会上,Llama 仅被提及一次。公司内部原本对开源 Llama 的执着,如今已转向另一套截然不同的 AI 计划——包括以数十亿美元的代价从行业挖人,以对抗 OpenAI、Google 和 Anthropic。

随着 2025 年接近尾声,内部人士与行业专家表示,Meta 的 AI 战略变得支离破碎,进一步强化了外界对其落后于 AI 竞争对手的印象——尤其是在消费者与企业市场上,对手的模型迅速占领份额。


Meta 正秘密打造 Llama 的继任者——代号 Avocado

据 CNBC 获悉,Meta 正研发一款新的前沿 AI 模型,代号 Avocado

知情人士表示:

  • 许多员工原本预计这款模型会在年底前发布;
  • 但现在计划推迟至 2026 年第一季度
  • 模型仍在处理训练与性能测试,以确保正式亮相时能获得良好评价。

Meta 发言人回应称:

“我们的模型训练进展符合计划,没有出现重大时间调整。”

华尔街质疑 Meta:巨额投入后仍未看到回报

今年 Meta 股价表现不及科技大盘,落后于 Google 母公司 Alphabet。

今年 6 月,Meta 花费 143 亿美元挖来了 Scale AI 创始人 Alexandr Wang 与其团队,并在随后提高了 2025 年资本支出预期(从 660–720 亿美元上调至 700–720 亿美元)。

KeyBanc 分析师评价:

“Meta 从年初的 AI 领跑者,变成了如今投资规模和回报皆受质疑的公司。”

Meta 的难题:广告业务太成功

Meta 的核心业务依然是数字广告。

  • 每年广告收入超过 1600 亿美元
  • 依靠 Instagram 的增长与 AI 驱动的精准投放,广告收入仍以 **20%+**的速度成长
  • 投资者称赞 Meta 用 AI 提升效率、降低冗余

但扎克伯格的野心远不止广告,而负责推进未来 AI 蓝图的新团队,在广告领域毫无背景。

扎克伯格强调:

不进行大规模押注,就可能在 AI 时代被边缘化。

从“开源信徒”到谨慎收缩:Meta 正重新审视 Llama 开源策略

Meta 的独特优势原本是 Llama 的开源策略,让研究者和开发者能够自由下载模型权重并改进。

扎克伯格曾在 2024 年 7 月写道:

“虽然许多公司在研发封闭模型,但开源正在迅速缩小差距。”

但随着 Llama 4 发布失败、开发者不买账,这种态度开始动摇。

7 月,扎克伯格表示:

必须更严谨看待风险,并慎重决定哪些部分继续开源。

知情人士透露:

  • 新模型 Avocado 很可能是封闭的,模型权重不会再被自由下载;
  • 部分员工对中国实验室 DeepSeek 在今年 R1 模型中采用 Llama 架构感到不满,这进一步强化了收紧开源策略的声浪。

此外,Meta 今年新成立的 Meta Superintelligence Labs(MSL)内部,也有领导者质疑开源路线,主张构建更强大的专有模型。


Llama 4 失利引发内部震动:20 年老臣不再负责 AI 单元

消息人士称,Llama 4 的失败是促使扎克伯格转向的重大转折点,并导致内部结构调整:

  • 20 年资深老将、首席产品官 Chris Cox 被撤出 AI 部门(GenAI 单元)的管理。

随后,扎克伯格展开了一场高价 AI 人才抢夺战


扎克伯格押注外部人才:Scale AI 创始人成 Meta 新 AI 负责人

扎克伯格相中 28 岁的 Alexandr Wang(Scale AI 创始人),任命其为 Meta 首席 AI 官,并领导一个名为 TBD Lab 的精英团队。

Avocado 模型正由 TBD Lab 负责开发。

此外还有:

  • GitHub 前 CEO Nat Friedman(负责产品与应用研究)
  • ChatGPT 共同创造者 Shengjia Zhao(赵昇佳)

这一批人带来了硅谷最先进的前沿模型研发方式,彻底颠覆了 Meta 内部原有的软件开发流程。


竞争对手全面提速,Meta 感受巨大压力

谷歌在上月发布了 Gemini 3,获得良好评价。
OpenAI 刚更新了 GPT-5
Anthropic 则在 11 月发布 Claude Opus 4.5

分析师对 CNBC 表示:

没有绝对领先的模型,但要保持领先,每家公司都必须大量砸钱。

其中大部分资金最终流向了 英伟达(Nvidia)

英伟达 CEO 黄仁勋在 11 月财报会上直接点名主要客户:

“我们运行 OpenAI、Anthropic、xAI、Gemini……我们运行所有人。”

唯独没有提到 Llama


Meta 内部工作强度飙升:70 小时工作周成常态,AI 部门裁员不断

为了重获竞争力,Meta 多个 AI 单位经历高压:

  • 工作周普遍 70 小时
  • 多次裁员与重组
  • 10 月 MSL 裁撤 600 个职位

裁员影响了 FAIR(基础 AI 研究部门)等团队,也促使 Meta 首席 AI 科学家 Yann LeCun(杨立昆) 离职创业。


Meta 的管理文化被彻底改造

扎克伯格此次大胆启用外部人才——而非传统的内部晋升路线——在 Meta 内部属于重大文化转折。

知情人士表示,Wang 和 Friedman 的工作风格与 Meta 传统开放、透明、内部社交平台 Workplace 的文化截然不同:

  • TBD Lab 成员不使用 Workplace
  • 甚至不在系统内
  • 团队运作方式如同一家独立初创公司

尽管如此,扎克伯格仍保留部分控制:

  • 元老级 VP Aparna Ramani 负责协调 MSL 的算力资源
  • 原元宇宙业务负责人 Vishal Shah 被调任为 AI 产品副总裁,与 Friedman 合作

Meta 已确认,将削减 VR 与元宇宙业务资源,转向支持与 EssilorLuxottica 合作的 AI 眼镜


“Demo,别写备忘录”:Meta 的软件开发模式被全面重写

消息人士称,最突出的冲突发生在软件开发流程上。

Meta 传统开发方式需要多个团队协作,确保统一的用户体验。但内部许多工具并不支持基础模型的开发需求。

Friedman 认为这些是拖慢 AI 研发的瓶颈,并推动 MSL 使用能与多模型与 AI 编程智能体协作的新工具。

Lovable CEO Anton Osika 在一场峰会上表示:

“他们(Meta AI 团队)现在的口号是:‘Demo,不要 memo(演示,不要备忘录)’。”

Meta 的财务团队已用 Lovable 工具更快构建内部应用,用于员工统计与规划。


Meta 向外部云服务靠拢,同时筹建巨型数据中心

Meta 正与第三方云服务合作,例如:

  • CoreWeave
  • Oracle

同时继续建设大型数据中心。

今年 10 月,Meta 宣布与 Blue Owl Capital 成立合资企业,投资 270 亿美元建设位于路易斯安那州的巨型 Hyperion 数据中心。Meta 表示,这将提供建造速度与灵活性,以支持公司长期 AI 目标。


尽管面临重重挑战,扎克伯格仍信心满满

在 10 月财报会上,扎克伯格表示:

“我们已经建成行业中人才密度最高的实验室。”
“我们正全力开发下一代模型与产品,并将在未来几个月分享更多消息。”

Read more

Llama-3.2-3B步骤详解:Ollama部署后启用GPU加速(CUDA/cuDNN)全流程

Llama-3.2-3B步骤详解:Ollama部署后启用GPU加速(CUDA/cuDNN)全流程 1. 为什么需要GPU加速?——从“能跑”到“跑得快”的关键跃迁 你可能已经用Ollama成功拉起了Llama-3.2-3B,输入几句话就能看到回复,一切看似顺利。但当你连续提问、生成稍长文本,或者尝试多轮对话时,会明显感觉到响应变慢——几秒甚至十几秒的等待,让原本流畅的交互体验打了折扣。 这不是模型能力的问题,而是默认情况下Ollama在CPU上运行。Llama-3.2-3B虽是3B参数量的轻量级模型,但其Transformer结构天然适合并行计算。一块中端消费级显卡(比如RTX 3060或更高),在GPU模式下推理速度可比CPU快3~5倍,显存占用更合理,还能释放出CPU资源去做其他事。 更重要的是,Ollama官方明确支持CUDA加速,且无需手动编译模型或修改源码。整个过程不涉及复杂配置文件编辑,也不要求你成为CUDA专家——只要你的机器有NVIDIA显卡、驱动正常、CUDA环境基础就绪,就能完成切换。本文将带你从零开始,一步步验证环境、启用加速、实测对比,并解决你最可能卡

【记录】Copilot|Github Copilot重新学生认证通过方法(2025年7月,包括2FA和认证材料、Why are you not on campus)

【记录】Copilot|Github Copilot重新学生认证通过方法(2025年7月,包括2FA和认证材料、Why are you not on campus)

文章目录 * 前言 * 步骤 * 最重要的一步 前言 事实上,Github Copilot马上就要开源了,我原本的认证过期了。但是在我体验了众多的代码补全工具实在是太难用了之后,我觉得一天也等不了了,就去再一次认证了学生认证。 这次严格了很多,要求巨无敌多,这里写一下新认证要干的事情。 一口气认证了八次的含金量谁懂,把要踩的坑全踩完了。。 步骤 (如果你是第一次认证还要额外添加一下自己的学校邮箱,这里我就略过不提了) 在所有的步骤之前,最好确保你的本人就在学校或者在学校附近。当你出现了报错You appear not to be near any campus location for the school you have selected.时,会非常难通过。 而其他的报错可以按我下文这种方式通过。 (对于部分学校,比如华科大)双重认证Two-factor authentication要打开:跳转这个网站https://github.com/settings/security,然后点下一步开启认证,

展望 AIGC 前景:通义万相 2.1 与蓝耘智算平台共筑 AI 生产力高地

展望 AIGC 前景:通义万相 2.1 与蓝耘智算平台共筑 AI 生产力高地

引言 在 AI 视频生成领域不断创新突破的当下,通义万相 2.1这款开源的视频生成 AI 模型一经发布便引发了广泛关注。其表现十分亮眼,发布当日便强势登顶VBench排行榜,将Sora、Runway等行业内的知名强大对手甩在身后,彰显出不容小觑的强劲实力与巨大潜力。 通义万相 2.1模型具备诸多令人赞叹的特性。它所生成的视频分辨率达到了1080P,并且在视频时长方面没有任何限制。更为厉害的是,它能够精准地模拟自然动作,甚至还可以对物理规律进行高度还原,这些卓越的能力无疑为 AIGC 领域带来了前所未有的变革,堪称具有里程碑意义的重大突破。 借助蓝耘智算平台,用户可以便捷地对通义万相 2.1 模型进行部署,进而打造出属于自己的个性化 AI 视频生成工具。今天,我会带领大家深入了解通义万相 2.1的各项强大功能,同时也会详细分享怎样通过蓝耘智算平台快速上手,开启 AI 视频生成的奇妙之旅。 蓝耘智算平台:开启高性能计算新时代 1. 平台概览 蓝耘智算平台作为专为满足高性能计算需求精心打造的云计算平台,以强大计算力和灵活服务能力脱颖而出。其依托先进的基础设施,配备大规模GPU算力

【优质开源项目】AIGC开源推荐-全球情报监控平台worldmonitor

【优质开源项目】AIGC开源推荐-全球情报监控平台worldmonitor

1.概述 World Monitor 是一个开源的实时情报/监测仪表盘,聚合多类数据源(新闻、地理/卫星、航运/空中、财经、威胁情报等),提供交互式地理视图、AI 摘要、事件聚合与报警,支持 Web / PWA / Tauri 桌面三种运行方式,并可通过变体(WORLD / TECH / FINANCE)切换功能集。 2. 总体技术架构(分层视角) 客户端层(Browser / PWA / Tauri desktop) * • React + TypeScript + Vite 构建。 * • 地图/可视化:deck.gl(WebGL 3D globe)、MapLibre GL、D3