英伟达在获得美国政府有条件解禁高端芯片对华出口的同时,其最大的AI芯片客户——谷歌、亚马逊、微软等云巨头正加速普及自研芯片,从后方对英伟达的市场主导地位构成日益严峻的“群狼”式挑战。 ## 黄仁勋的游说胜利与市场困局 美国政府本周批准英伟达向中国等“经批准的客户”出售H200 GPU芯片,但需缴纳25%的销售提成,而Blackwell及未来系列仍被禁运。这标志着黄仁勋长达数月的游说取得成功,消息推动英伟达股价上涨。然而,由于此前禁运令,英伟达已逐步失去迅猛增长的中国市场,其AI GPU市场份额从高达95%归零,中国市场在数据中心业务的营收占比也从四分之一急剧下滑。即便缴纳高额提成,重新进入规模估计达200亿-300亿美元的中国市场对英伟达意义重大。 ## 后方告急:核心客户转为竞争对手 英伟达虽在AI芯片市场占据八成以上份额,但其年营收1300亿美元的数据中心业务存在客户集中度过高的巨大隐患:前两大客户占比39%,前三大客户占比高达53%(据信为微软、谷歌、亚马逊)。这三大超大规模云服务商正加速转用自研芯片,并拉拢英伟达的第四大客户Meta,此举将直接减少英伟达订单并可能在未来公开市场构成威胁。 ## AWS的低成本推理杀手 亚马逊在re:Invent大会上发布第三代自研AI芯片Trainium 3,训练速度比前代快4倍且成本减半。与英伟达GPU系统相比,Trainium 3可节省50%训练费用,例如能在24小时内完成H100集群需一周的Llama 3.1训练任务。AWS明确要通过自研芯片、模型及全家桶服务掌控整条AI赛道,其云市场份额超过三成,OpenAI已与其签署七年价值380亿美元的服务协议。 ## 谷歌TPU的性能跃升与生态扩张 谷歌发布第七代TPU v7 Ironwood,单芯片FP8计算达4.6 PFLOPS,比第五代提升10倍,在能效上较英伟达Blackwell领先20%。谷歌TPU不仅是硬件,更是云生态的“杀手锏”,使用TPU可将训练成本降低40%。其市场份额预计已达8%,并成功吸引了Meta计划在2027年转用谷歌TPU,这对英伟达构成双重打击。 ## 微软自研芯片的挫折与追赶 微软自研芯片Maia 100已开始部署,预计比H100成本低40%,但原计划今年发布的Maia 200量产已推迟至2026年, due to 设计变更和台积电产能瓶颈。若二代芯片无法及时部署,微软明年可能需额外投入100亿美元购买英伟达芯片,凸显了其减少依赖战略面临的供应链挑战。 ## 性能与成本的巅峰对决 英伟达凭借Blackwell GPU(单芯片20 PFLOPS)的性能优势和庞大的CUDA开发者生态(支持4000多个AI框架和库)维持护城河。而云巨头则主打成本优势:Trainium3训练成本可降50%,Ironwood TPU推理能效高20-30%。巨头们正通过渐进策略(如AWS Neuron SDK、谷歌JAX)蚕食CUDA优势,并计划未来进一步扩大成本差距。 ## 未来市场格局的预判 亚马逊目标明年实现50%自研芯片占比,谷歌TPU外部销售已占其出货的20%。AMD CEO苏姿丰预判,专注于特定用途的ASIC类加速器(即巨头自研芯片)未来可能占据20%-25%的市场份额,而GPU因其灵活性和可编程性仍将占据大部分市场。同时,英伟达在中国市场还需面对华为、寒武纪等本土竞争对手。
群狼围上来了,黄仁勋最大的竞争对手来了
2025-12-12 09:20

群狼围上来了,黄仁勋最大的竞争对手来了

本文来自微信公众号: 新浪科技 ,作者:郑峻,原文标题:《群狼围上来了!黄仁勋最大的竞争对手来了|硅谷观察》,头图来自:AI生成


黄仁勋终于得到了他最想要的东西。


本周美国政府正式批准英伟达向中国以及其他“经批准的客户”出售高端的H200 GPU芯片,但需要向美国政府缴纳25%的销售提成。这一提成比例同样适用于AMD、英特尔等其他美国芯片巨头。不过,英伟达最新的Blackwell和未来的Rubin系列GPU仍然禁止出口。


这标志着黄仁勋长达数月的游说取得成功。过去半年时间,他不断造访佛罗里达与华盛顿,随着特朗普总统一道出访和出席国宴,向白宫宴会厅建设工程捐款,就是为了这一刻。就在上周,他再一次来到白宫会见总统,终于如愿以偿得到了解锁禁运令。


受这一利好消息推动,英伟达股价盘后应声上涨。受美国政府连续多道芯片加码禁运令限制,过去两年时间,英伟达一步步失去迅猛增长的中国市场,丢掉了在AI GPU市场原先高达95%的份额。在英伟达最核心的数据中心业务,中国市场的营收占比也从原先的四分之一急剧下滑。


心急如焚的黄仁勋在两个月前公开抱怨,“我们已经失去了全球最大的市场之一,在中国市场完全出局,市场份额已经归零。”即便是向美国政府缴纳四分之一的提成,对英伟达的业绩营收也意义重大,因为中国AI GPU今年规模估计高达200亿-300亿美元(中商产业研究院数据)


然而,黄仁勋在努力争取重新打开另一个市场的时候,或许还要担忧自己的后方。因为群狼已经围上来了:他们最大的AI芯片客户,谷歌、亚马逊、微软这三大巨头,即Hyperscalers(超大规模云服务商),正在加速普及自己的自研芯片。


英伟达无疑是生成式AI时代的领军公司。在AI芯片这个万亿级赛道中,英伟达以压倒的性能优势和CUDA平台优势占据主导地位,其GPU产品线几乎垄断了八成以上的市场份额。英伟达也因此成为全球最具价值的上市公司,市值甚至一度突破5万亿美元。


虽然英伟达数据中心业务营收高达1300亿美元(最近财年),但却存在一个巨大隐患:客户集中度过高,过度依赖于几大AI巨头。其中,前两大客户营收占比39%,前三大客户营收占比高达53%。


据媒体猜测,黄仁勋的前五大客户正是:微软、谷歌、亚马逊、Meta和甲骨文。而这前三大巨头正在加速转用自研芯片,同时拉拢第四大客户。这些自研芯片的部署,不仅会直接减少英伟达的芯片订单,更有可能在公开市场给英伟达带来威胁。


一、AWS低成本推理杀手


在上周拉斯维加斯召开的re:Invent年度开发者大会上,全球云计算市场的领头羊亚马逊AWS连续公布了一系列重磅产品,清晰地展示了在AI热潮中占据市场主导以及推动行业潮流变化的雄心。


最引人注目的当属亚马逊新一代自研AI芯片:Trainium 3。诸多媒体将Trainium3誉为“对英伟达的直接宣战”。这是亚马逊自2022年以来的第三代AI芯片,主打低成本与推理两大优势。


AWS CEO马特·加曼(Matt Garman)宣布,第三代芯片训练速度比前代快4倍,成本减半,特别适合亚马逊Nova 2模型家族的部署,支持百万芯片级集群。与英伟达相当的GPU系统相比Trainium3可节省50%训练费用。现场演示显示,Trainium3在Llama 3.1训练中,仅需24小时完成相当于H100集群一周的任务。


低成本是最大的卖点,AWS官方将Trainium3定位为英伟达GPU的低成本替代品。他们表示,对于愿意采用其Neuron软件栈和Trainium实例的客户,基于Trainium的实例可以将大型模型的训练成本(通常还包括推理成本)比同类GPU集群可以降低高达约50%。


亚马逊此次大会的诸多发布相当于摆明态度:要用自研芯片、自研模型、私有化部署以及智能体全家桶,把从训练到推理、从云端到本地、从通用模型到定制模型的整条AI赛道都牢牢攥在自己手里。云计算巨头AWS摆明自研方向,这无疑会对AI基础设施市场的未来走向带来重大影响。


目前AWS在云计算市场仍保持巨大领先优势,为大大小小的客户提供云端AI算力,支持他们自由选择各种大模型。AWS目前的市场份额超过三成,而排名二三位的微软与谷歌市场份额为20%与16%。(基于Synergy Research的统计数据)


从Anthopic到OpenAI再到Meta,诸多AI巨头与创业公司都在广泛使用亚马逊的AWS云服务。就在上个月,OpenAI宣布与AWS签署合作协议,七年采购价值380亿美元的AI基础设施服务。AWS还强调,Anthropic等AI初创公司已转向Trainium,节省了超过三成的预算。


二、谷歌拉到Meta大客户


谷歌是行业最早自研芯片的巨头,其第一代TPU早在2016年发布,已经成为AI基础设施巨头挑战英伟达的行业标杆。就在上个月,谷歌在他们的Cloud Next云计算大会上发布第七代TPU v7 Ironwood,进一步让英伟达感受到了压力。


Ironwood的核心亮点是性能跃升:单芯片FP8计算达4.6 PFLOPS(每秒1000万亿次浮点计算),比第五代TPU提升10倍,是第六代TPU的4倍。


谷歌强调Ironwood专为“高吞吐、低延迟”推理优化,适用于Gemini 3等多模态模型。相比英伟达王牌的Blackwell,Ironwood在能效上领先20%,功耗仅300W/芯片。这得益于其systolic array架构和自定义互连,可以专攻矩阵乘法等AI核心运算。


谷歌在TPU的演进上稳步前进:从v1的纯训练芯片,到v7原生支持FP8,谷歌已覆盖从边缘设备(Edge TPU)到超大规模Pod的全栈。从战略上看,Google的TPU不仅是硬件,更是云生态的“杀手锏”。


对英伟达来说,谷歌带来的威胁已经日益明显。2025年,谷歌的AI芯片市场份额预计已经达到8%,尤其在占AI算力80%的推理领域。SemiAnalysis分析称,Ironwood“显著缩小了与NVIDIA旗舰的浮点计算性能差距”。


谷歌声称,使用TPU可将训练成本降40%,吸引了Meta等第三方客户。据媒体报道,Meta已经计划在2027年部署谷歌TPU,绕过英伟达的芯片。谷歌Ironwood服务器将交由富士康代工。而Meta正是英伟达AI芯片的第四大客户。这一打击是双重的。


虽然黄仁勋依然以乐观口吻应对谷歌TPU带来的威胁,强调英伟达的多平台兼容与供应链优势,认为巨头自研芯片不会动摇英伟达的“护城河”(生态和软件栈),但他也不得不承认市场竞争会让投资者感到担忧。


三、微软抢不过巨头量产延误


相比亚马逊和谷歌在自研芯片方面的稳步推进和大规模部署,微软在这领域暂时还在交学费,遭受了跳票挫折。微软自研芯片首代Maia 100于2024年推出,专为自家的Azure AI优化,今年开始大规模部署。但原本计划今年发布的Maia 200(代号Braga)的大规模量产已经推迟至2026年。


今年10月,微软宣布Maia 100已部署于Azure数据中心,支持OpenAI模型训练。这是微软与博通合作开发的芯片,预计比英伟达的H100芯片成本低40%。而未来三代(代号分别为Braga、Braga-R和Cobalt)计划覆盖训练、推理和边缘。


Maia芯片的最大优势自然是与微软Azure的原生态结合——集成DirectML框架,吸引企业客户私有化部署。Maia系列聚焦多模态AI,例如突出微软Copilot的语音和视觉处理,单芯片BF16性能达2 PFLOPS。


微软CTO凯文·斯科特(Kevin Scott)表示,公司未来将“主要使用自家芯片”,目标减少对英伟达芯片的严重依赖。但微软的这一目标却遭到了Maia量产推迟的打击。根据媒体报道,Maia 200量产延误主要是由于设计变更、仿真不稳定等技术与内部因素。


但另一方面,台积电的产能瓶颈也是现实限制因素。毕竟台积电先进制程(如N3/N2/高级封装)目前是全球最抢手的生产能力,英伟达、苹果、AMD等巨头客户都在争抢产能。产线几乎被预定一空,排期非常紧张。


台积电通常会根据订单时间、技术节点、客户战略价值等进行安排。微软既不是台积电的大客户,自身芯片设计也没有完善,只能排在后面的非优先级。微软想减少对英伟达的依赖,这是战略必要,但芯片从设计到大规模量产之间仍有长期供应链竞争。


在台积电那里产能抢不过芯片巨头,微软只能转向英特尔的18A节点,计划在明年实现量产。这一延误给微软带来了巨大的额外开支。如果Maia二代不能及时规模部署,微软明年可能还要投入100亿美元购买英伟达芯片。


四、性能vs成本巅峰对决


虽然目前英伟达依然在AI芯片领域占据绝对话语权,但三大巨头的自研浪潮正给市场带来巨大变数。2025年谷歌、亚马逊和微软先后发布的最新自研芯片,预示着2026年将是一场“性能vs.成本”的巅峰对决。


性能技术依然是英伟达的核心优势,谷歌微软亚马逊的自研芯片都只能强调成本优势。英伟达今年的Blackwell架构B200 GPU,单芯片FP8计算能力达20 PFLOPS(每秒千万亿次浮点运算),比前代H100提升4倍。


在推理任务中,Blackwell的能效比谷歌TPU高出30%,这得益于其先进的NVLink互联技术和Transformer引擎优化。黄仁勋对此充满信心,正如在GTC 2025大会上宣称:“我们的GPU领先竞争对手整整一代。”


这种领先不仅体现在峰值性能,还包括软件栈的深度整合:CUDA平台支持4000多个AI框架和库,开发者生态庞大到“开箱即用”。这才是英伟达的真正护城河。相比之下,AI巨头们的自研芯片往往需额外适配,增加了开发者的迁移成本。


但成本却是AI巨头自研芯片的最大卖点。亚马逊Trainium3已宣称可将训练成本降至前代的50%,谷歌Ironwood TPU在推理任务中,能效比英伟达H100高出20-30%。进入2026年,这一差距将进一步拉大。


此外,AI巨头正通过“渐进式”策略蚕食英伟达的CUDA优势。谷歌的JAX和PyTorch/XLA集成已覆盖70%AI工作负载,AWS Neuron SDK支持Llama和Stable Diffusion等开源模型,而微软的DirectML则无缝嵌入Visual Studio,吸引企业开发者。


亚马逊AWS计划在Trainium4上集成NVLink兼容技术,实现与英伟达GPU的无缝混合部署,预计训练费用再降40%。与此同时,2027年商用的谷歌TPU v8将引入光子互联和更先进的systolic array架构,针对多模态模型如Gemini 4的推理优化,成本优势或达50%以上。


五、四分之一市场份额


亚马逊的目标是在明年达到50%的自研占比,推动AWS在AI云市场的份额从31%升至35%。他们是Anthropic的最大投资者和云服务商。因此Anthropic的大模型训练主要靠AWS Trainium芯片。


而谷歌TPU的市场份额更是已悄然攀升至8%。他们从今年开始向外部客户积极销售原先自用的TPU,目前的外部销售占比已经达到了20%。随着2027年Meta转用TPU,英伟达将真正感受到谷歌带来的竞争压力。


今年10月,Anthropic与谷歌签署了价值数百亿美元的协议,计划使用多达100万片TPU,其中包括40万片Ironwood,其余通过谷歌云租赁。换句话说,现在AI大模型公司都在推动芯片多元化,尽可能同时使用多家芯片,而不是只依赖于英伟达GPU。


黄仁勋传记作者、非常了解英伟达的史蒂芬·维特(Stephen Witt)认为,“英伟达最大的风险显然是谷歌,如果谷歌证明他们可以用自家芯片维持领先AI开发,那么这将给其他巨头树立榜样。”


即便加紧部署自研芯片,这些巨头也会未来几年继续采购英伟达。一个值得体会的细节是,谷歌和亚马逊在发布自研芯片时,都会提前通知英伟达,因为他们希望继续维持与英伟达的良好关系,继续保证自己的芯片供应。


未来这些巨头自研芯片会达到多少份额?黄仁勋的直接竞争对手、AMD CEO苏姿丰对谷歌TPU给出了非常高的评价。“多年来,谷歌在TPU架构上做得很好。但TPU是一种更偏向特定用途的设计,它缺乏GPU所具备的可编程性、模型灵活性,以及训练与推理能力之间的平衡。GPU将高度并行架构与高可编程性相结合,从而能够实现快速创新。”


“从我们的角度来看,各种类型的加速器都有空间。然而,在未来五年内,GPU仍将明显占据市场大部分份额,因为我们仍处于行业周期的早期阶段,软件开发者希望拥有实验新算法的灵活性。因此,给ASIC类加速器(三大巨头的自研芯片都是)留出20%–25%的市场份额是合理的。”


换句话说,她认为三大巨头的自研芯片可能在未来夺走四分之一的市场份额。而且,苏姿丰还计划AMD在未来3-5年,抢到两位数的市场份额。以及,英伟达在中国市场同样要面临华为、寒武纪等本土竞争对手。

AI创投日报频道: 前沿科技
本内容由作者授权发布,观点仅代表作者本人,不代表虎嗅立场。
如对本稿件有异议或投诉,请联系 tougao@huxiu.com。
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定