本文来自微信公众号: 腾讯科技 ,编辑:徐青阳,作者:苏扬,题图来自:视觉中国
Meta的2026开局并不顺利。
即将过去的2月份,中国模型在忙于“春节大战”,硅谷模型在卷“天级别更新”,Meta几乎没有动作,甚至是14亿重金(约2亿美金薪酬)挖到的苹果基模负责人庞若鸣,入职半年就离职加入OpenAI了。
很多人都在猜测,如果硅谷大厂里有人要下牌桌,第一个就是Meta。
模型开发进展不顺,核心团队不稳定,现在算力也有“城门失火”的可能——The information援引知情人士的消息称,内部代号为Olympus的最先进AI训练芯片项目已被叫停。
为了应对自研进展不顺的问题,扎克伯格的解法是加速外购,在原有英伟达供应的基础上,新加入AMD和谷歌两个算力供应商。
2月24日,Meta与AMD宣布达成一项价值超过1000亿美元的协议。未来五年,Meta将采购足够支撑6吉瓦计算能力的AMD MI450系列芯片。
两天后,有消息称Meta与谷歌也达成了合作协议。Meta将租用谷歌的TPU(张量处理单元)用于开发新的AI模型,协议为期数年,价值数十亿美元。双方还在进一步洽谈,Meta可能在明年直接购买TPU部署在自己的数据中心。
自研折戟,“被迫”外购
Meta自研芯片的努力已经持续了两年多,困境比外界想象的更严重。
据多位知情人士透露,Meta内部代号Olympus的最先进AI训练芯片项目已被叫停。Olympus原本是Meta对标英伟达的重头戏,采用与英伟达类似的SIMT架构。

据了解,Olympus的核心GPU设计来自一家叫Rivos的初创公司,Meta去年刚把这家公司收购。Rivos当时承诺,其GPU能跑英伟达的CUDA代码,只不过能跑是一回事,跑得稳不稳、能不能大规模量产,是另一回事。
Meta原计划最早2026年第四季度完成Olympus的设计,算上量产周期,真正规模化部署还要大幅度延后。
这已经不是Meta第一次在自研芯片上栽跟头。
此前内部代号为Iris的第二代训练芯片,也已经被放弃。Iris采用的是SIMD架构,硬件设计相对容易,但软件编程难度大,训练AI模型时效率不高。
一位参与Meta芯片项目的人士透露,公司内部一直存在怀疑的声音:想要造出性能媲美英伟达的芯片,风险太高了。延迟、重新设计、功耗控制,任何一个环节出问题,都可能让这颗芯片失去实用价值。要解决这些问题,需要一支庞大的工程师团队,而且不能保证最终结果一定成功。
Meta高管层最终做了一个现实的决定:与其继续在自研芯片上消耗时间,不如直接外部采购。
扎克伯格1月在Threads上透露,到2030年前要部署“几十吉瓦”的数据中心算力,未来要达到“数百吉瓦甚至更多”。仅2025年,Meta就花了720亿美元建设AI数据中心,今年计划投入1350亿美元。
算力需求极大,要求Meta对采购需要制定对应的策略,很显然这无法依赖一家供应商,也不能依赖一家供应商,这是Meta“算力三角恋”的根源。
Gemini替TPU训练“正名”
自研缺位,Meta需要找到一个能在训练环节跟英伟达形成互补的选项,谷歌TPU与Anthropic的合作,也加速了Meta与谷歌合作的落地。
据参与谈判的人士透露,Meta租用谷歌TPU是为了开发新的AI模型,这意味着其将用于训练,而非推理。训练是英伟达最强势的领域,大多数分析师曾认为,短期内很难有人能在训练技术上挑战英伟达。
基于TPU训练的谷歌Gemini模型,给Meta采购TPU也打了样。
只不过,过去的卡点在于,谷歌TPU过去只能通过谷歌云使用,客户想把模型跑在TPU上,就得把数据和计算任务都放进谷歌的数据中心,这对很多公司来说,这是个不小的障碍,毕竟涉及到数据安全、合规要求、成本控制等诸多问题。
自Anthropic开始,谷歌调整策略,支持外部采购,Meta和谷歌在TPU上的合作大体如此,预计明年直接购买TPU部署在自己的数据中心。
还有一个因素可能促使Meta下决心:去年包括OpenAI和Meta在内的一些客户,在部署英伟达最新的Blackwell芯片时遇到了技术故障和其他复杂问题,没能按预期规模顺利上线。这给了谷歌TPU一个窗口期。
不过,谷歌也在探索更多渠道。据知情人士透露,谷歌正在与私募股权公司洽谈,共同成立合资企业。谷歌出芯片,投资方出钱,一起把TPU租给更多客户。这种模式与英伟达扶持CoreWeave等“新云厂商”的思路类似。
消息称,谷歌已经在这方面与一家大型投资公司签署了投资意向书,由谷歌云资深人士本杰明·特雷纳·斯洛斯(Benjamin Treynor Sloss)领导的团队正在主导TPU融资工作。
有知情人士透露,一些谷歌云高管曾在内部表示,TPU业务有机会拿下英伟达10%的份额。按英伟达过去12个月约2000亿美元收入计算,10%就是200亿美元。
当然,谷歌也得处理一个微妙的关系:它既是英伟达的竞争对手,也是英伟达的大客户。谷歌云部门必须持续购买英伟达GPU,因为很多开发者指名要用。如果谷歌云没有英伟达芯片,这些人就会跑到别家云平台去。
所以谷歌也得两头下注,一边卖自己的TPU,一边继续买英伟达的GPU。
抱团AMD承接“推理”
训练的问题有了着落,推理环节的需求同样惊人,AMD由此进入Meta的视野。
2月24日,Meta与AMD宣布了一项价值超过1000亿美元的协议。未来五年,Meta将采购足够支撑6吉瓦计算能力的AMD MI450系列芯片。AMD方面表示,每吉瓦计算能力对应的是数百亿美元收入。

这笔交易最特别的地方是股权绑定。
作为协议的一部分,AMD授予Meta认股权证,允许后者以“白菜价”收购大约10%的股份。当然,这需要满足特定业绩里程碑,而且全部行权的前提是AMD股价涨到600美元,而AMD现在的股价还在200美元左右,也就是说其市值,要在现在的基础上多出两个自己。
AMD CEO苏姿丰在发布合作公告前的记者会上承认:“Meta有很多选择。我希望确保当他们思考下一步需要什么时,我们始终是他们明确考虑的对象。”
值得注意的是,Meta+AMD这种“循环融资”模式,在AI芯片行业已经不是第一次出现。2025年10月,AMD与OpenAI达成协议,条款几乎一模一样。
MI450系列采用Chiplet设计,将多个小芯片粒拼在一起,定制化空间更大,Meta采购这些芯片后,可以针对自己的应用场景优化,主要用途是推理。
英伟达的预判、闷声发财的博通
Meta这种客户的“算力三角恋”,黄仁勋早就提前作出了预判。
“大多数科技公司最终会放弃自研AI芯片。”2025年,黄仁勋在一次分析师会议上表示。他的理由是,英伟达的GPU性能会一直领先,竞争对手的芯片则永远差一步。
英伟达面临的现实是,光靠性能领先不够,台积电的产能是一切的根源:只要供给不足,市场就会留下缺口,竞争对手就有机会。
所以,除了抱团大客户锁单,英伟达也一样在推动“循环融资”:
去年,英伟达投了Anthropic,条件是对方继续使用其芯片。同时,英伟达还与OpenAI讨论过一笔300亿美元的股权投资。客户这边,英伟达在2月中旬与Meta达成了“多代”合作伙伴关系,承诺未来几年向后者供应数百万颗GPU。
现阶段,英伟达还有一张还无法被取代的王牌——CUDA护城河。
“硬件不是护城河,大家都能设计出来,AMD投了几百亿美金,性能也更好,但一直干不过英伟达,核心点就在于CUDA生态。”一位国产芯片创业者此前透露。
该创业者强调,CUDA生态的工具包集成度非常高,不想写的函数、代码都可以快速找到。
在这场混战中,有一家公司始终保持低调,但赚得盆满钵满:博通。
谷歌的TPU,从生产到封装,一直是博通在操盘。博通负责与台积电对接,提供关键的SerDes IP,让TPU之间能高速互联实现并行计算。分析师估算,仅这一块业务,博通就能进账至少80亿美元。
博通的角色还不止于此——它同时为谷歌供货,也在做定制芯片业务,其手里握着核心的封装技术和IP,短期内谁也绕不开。
当然,谷歌与博通也不是铁板一块。外媒援引知情人士的消息,称两家公司经常因为定价产生分歧,谷歌已经开始寻找替代合作伙伴。
联发科的出现是一个关键的信号——联发科很快将开始生产一款低配版TPU,目的是帮谷歌节省运行AI的成本。
根据我们掌握的消息,联发科作为台积电2026年CoWoS新晋客户,已调拨大量人力支持ASIC业务——未来将成为联发科的重点板块——2026年下半年主要承担侧重推理的TPU v7e的出货,并在2027年作为出货主力年。
写在最后:一切都源于算力焦虑
刚刚英伟达的业绩会上,黄仁勋被问及硅谷巨头7000亿美元年度资本支出时,他说对客户们很有信心,其实更关键的是后半句。
“在这个AI新世界里,计算直接创造收入。没有计算,就无法生成token;没有token,收入增长就无从谈起。”黄仁勋说。
所以说,Meta的焦虑就来自于计算,来自于对算力不足的恐惧。
梳理Meta这一周的几笔交易,我们可以看到一家老牌巨头在自研不顺后的现实选择。
训练离不开英伟达芯片,那就继续买,但要用长期协议把供应锁死;训练市场要有后备选项,那就租谷歌的TPU,至少多一张牌;推理市场需求太大,自研芯片跟不上就找AMD定制,顺便拿点股权。
从很多场合的分享来看,扎克伯格心里清楚,算力就是AI时代的资源储备,这和黄仁勋的计算创造收入是一样的。谁手里储备多,谁就能跑得更快。
对英伟达、谷歌、AMD、博通这几家供应商来说,Meta这种多供应商策略既是机会也是压力——机会在于,蛋糕确实在变大。压力在于,谁也没法再靠独家供应躺着赚钱了。
