本文来自微信公众号: 硅基观察Pro ,作者:硅基君,原文标题:《市占率不足1%,却溢价3倍!英伟达究竟在怕什么?》
圣诞前夕,黄仁勋做出了一个“大胆”的决定:
英伟达计划花200亿美元收购AI芯片公司Groq。
作为英伟达历史上最大的收购,更让人惊讶的是,这笔收购超高的溢价率。
今年9月,Groq刚刚以69亿美元估值完成7.5亿美元融资。仅仅三个月后,英伟达给出的价码却是200亿美元。
也就是说,黄仁勋为了拿下这家公司,愿意在短短一个季度内支付近3倍的溢价。从时间和价格看,这更像一次带着明确紧迫性的出手。
但如果只看基本面,这笔交易并不“合理”。
要知道,Groq今年的收入也只有1.725亿美元,市占率甚至还远远不到1%。
在过去几年里,试图挑战英伟达的AI芯片公司并不少见。无论是Graphcore还是其他AI芯片玩家,最终都没能对英伟达构成实质性威胁。
从这个角度看,Groq并不像一个必须被“消灭”的对手。
问题恰恰在这里。为什么一个市占率不足1%的AI芯片公司,仍然值得英伟达付出200亿美元?在几乎已经确立绝对统治力的前提下,英伟达究竟在防御什么?
/01/
一笔激进的交易:市占率不足1%,却溢价3倍
英伟达这次,几乎完整复刻了Meta买Scale AI、Amazon买Adept AI时采用的套路,花了200亿美元拿走了Groq的核心高管、关键工程团队,以及可直接使用的知识产权授权。
在这笔收购里,英伟达拿到了Groq知识产权的非独家授权。未来,他们计划将其低延迟芯片整合进产品体系中。照英伟达内部的说法,Groq会“补齐”整个AI工厂架构的一部分。
同时,公司CEO Jonathan Ross和总裁Sunny Madra以及其他工程团队成员将加入英伟达,帮助推进和扩展这项技术。
Groq继续作为独立公司运营,由CFO Simon Edwards担任CEO,GroqCloud业务也继续运行。
这种交易结构,核心考量只有两个:
第一,足够高效,不用等完整收购的交易流程与整合周期。
第二,也是更关键的,合规。在监管日益严苛的当下,这是规避或者减轻反垄断审查最有效的方式。
当然,比起交易结构,最值得一说的还是交易价格。
200亿美元,是英伟达历史上最大的收购。上一个纪录,是2019年英伟达以69亿美元收购Mellanox。
不仅金额大,而且溢价极高。
今年9月,Groq刚刚以69亿美元估值完成7.5亿美元融资,投资方包括BlackRock、三星、思科等。多家媒体当时都提到,Groq并没有主动寻求出售。
仅仅三个月后,英伟达给出的价码却是200亿美元。这意味着,黄仁勋为了拿下这家公司,愿意在短短一个季度内支付近3倍的溢价。
这就引出了一个看似矛盾的问题:
Groq真的已经强到,值得英伟达如此“迫切”地出手吗?
从现实情况看,事实也并非如此。公开数据显示,2025年Groq收入约1.725亿美元;而Gartner给出的2024年全球AI芯片市场规模约为710亿美元。
换句话说,Groq的市占率还不到1%,距离对英伟达构成现实威胁,仍然很远。
从过去看,Groq也不是第一个试图撼动英伟达王座的挑战者。
在Groq之前,Graphcore、Mythic、Blaize、Habana……都试图挑战英伟达。
其中,Graphcore曾融资7.1亿美元,估值27.7亿美元,背后站着微软、三星、戴尔、红杉、柏基投资,一度被视为“欧洲AI芯片的希望”。
但结果是,这些公司无一例外,都没能真正撼动英伟达。
所以问题来了,一个市占率不足1%的对手,为何值得英伟达付出200亿美元?
/02/
供应链是壁垒,也是“软肋”
今年下半年,英伟达市值一度突破5万亿美元后,股价出现了一轮明显回调。截至目前,NVIDIA市值回落至约4.58万亿美元,基本回到今年8月的水平。
这并不意味着市场突然看空英伟达,而是一个更微妙的变化正在发生:
越来越多投资者开始问一个问题——英伟达还能否在所有AI阶段,都像过去那样,维持压倒性的领先?
尤其是在推理芯片上。和训练芯片不同,推理芯片并不是“越强越好”,它更注重延迟、吞吐、成本之间的平衡。在大量实时场景中,用一颗昂贵、通用但功耗巨大的GPU,未必是最经济的选择。
加上技术路线多样性,AI推理芯片竞争开始出现了更多变数。
而Groq,恰恰是这一波推理芯片浪潮里,最激进的玩家之一,其核心产品是自研的AI推理芯片LPU。
Groq最与众不同的地方,在于对内存结构的选择:绕开HBM(高带宽内存),全面拥抱SRAM。
这一选择,还是要从当下限制AI芯片发展的主要困境“内存墙”说起。
如果把芯片想象成一个餐厅,那么内存就是仓库,处理器就相当于后厨。
现在的困境是,厨师虽然炒菜很快,但去仓库取菜花的时间太久了。也就是说,内存的传输速度远远慢于处理器算力,导致芯片性能迟迟上不去。
为了解决这个问题,包括英伟达在内的厂商,都在围绕“仓库(内存)”做文章。
传统计算机所使用的内存,通常有两种:
DRAM容量较大,但传输速度较慢,起主存作用;而SRAM容量较小,但传输速度极快,作为缓存发挥辅助作用。
英伟达的解决思路是“修路”,引入了HBM。这就好比,在后厨旁边建一个传输带极快的小型中转仓,让外部内存尽量贴近芯片,让搬运这件事别那么慢。
但代价也随之而来——HBM本身昂贵,还必须配套硅中介层、CoWoS等先进封装,整个系统复杂度和成本一起抬升。
Groq则选择了另一条更激进的路。
既然算力一直在等外部内存,那不如干脆不要外部内存。
它彻底抛弃了外部内存,直接把所有数据都塞进芯片内部的SRAM里。
这就好比直接把食材堆在了灶台上。厨师伸手就能拿到菜,完全省去了去仓库搬运的时间。这种架构下,数据无需在芯片内外来回奔波,彻底消灭了“内存墙”。
这样做虽然省事,也会带来新的问题。最直接的影响就是,成本太高。
大模型对内存大小也有着很高的要求。参数量越大的模型,运行时所需要存储的数据也会更多。
SRAM虽然快,但缺陷是容量小。Groq花了这么多年,也只能将LPU的容量提升至230MB。而一块H200的内存容量是141GB,两者间差了约628倍。
这意味着,要装下更多的东西,就需要更多的空间。因此,在运行同样参数的模型时,需要用到的LPU数量就远远高于GPU。
早在去年,前阿里技术副总裁贾扬清就给Groq算了一笔账:
以运行LLaMA 70b模型为例,需要572张LPU,售价1144万美元;但如果换成H100,其实只需要8张,总价格在30万美元左右——所谓的“便宜”压根不成立。
但即使如此,也丝毫不影响投资人的信心,最终就连英伟达也被迫“溢价”收购Groq。
原因是,这玩意想象力太高了。
这不仅是一种差异化的技术,更是一场供应链的突围。
简单来说,这条路线还意外绕开了当下AI芯片最难的两道关卡:HBM和CoWoS。
今年10月,Groq CEO Jonathan Ross在一次分享里提到一个观点:
外界普遍认为英伟达的护城河是CUDA软件生态,但这主要在训练端成立。在推理端,真正的护城河是“买方垄断”(Monopsony)。
所谓“买方垄断”就是,当你作为唯一的大买家,反过来控制供给。而英伟达控制了全球绝大部分的HBM和CoWoS产能。
理论上,英伟达的GPU die(GPU裸芯片),本身使用的工艺并不特殊,理论上一年可以制造数千万颗。但现实中,真正限制出货量的,不是晶圆,而是HBM和中介层的产能。
这一点,在CoWoS上体现得尤为明显。根据台积电规划,2025年CoWoS月产能大约在6.5万到8万片之间。而Morgan Stanley推算,其中60%以上被英伟达占用。
CoWoS的工作,是把算力芯片和多颗HBM堆叠在一块硅中介层上。这一步对对位精度、良率和产线调度的要求极高,而产能扩张速度,明显跟不上AI芯片需求的爆发。
在“HBM+CoWoS”路线下,一颗高端GPU的交付节奏,已经不完全由晶圆厂决定,而要同时等待内存厂、封装厂和测试良率一起配合。
这反而构成了英伟达最容易被忽视的一道护城河。而Groq的路线一旦走通,意味着芯片生产的速度大大加快了。
正如分析师Max Weinbach在X上评价的那样:
“当你不再依赖美光、三星、SK海力士的HBM,也不再被CoWoS产能牵着走,制造节奏和选择空间都会明显放大。比如英特尔在18A、18A-PT工艺上,本身就具备不错的SRAM单元优势。”
/03/
总结
对英伟达来说,收购Groq的意义,并不在于“消灭一个推理芯片对手”。
从现实层面看,Groq今天的LPU并不具备直接竞争力。无论是成本还是规模,它都很难在替代GPU。所以,英伟达出手并不是因为Groq已经威胁到它的销量。
真正值得警惕的,是Groq代表的那条路线,可能动摇英伟达更深层的壁垒。
在当下的AI硬件体系里,HBM+CoWoS等先进封装不仅是行业瓶颈,更是英伟达的优势来源。英伟达凭借规模和订单确定性,事实上占据了全球最稀缺的HBM与先进封装产能,形成一种“买方垄断”:
别人就算有芯片设计,也未必拿得到足够的内存与封装资源把产品做出来、交付出来。
换句话说,英伟达的领先不只来自CUDA和架构,更来自它对供应链关键环节的优先占用与调度能力。这是一道隐形但极硬的护城河。
Groq验证了一条危险的路径:AI芯片制造其实可以不需要HBM,也不需要CoWoS。
一旦这条路线跑通,意味着芯片制造的门槛被大幅降低,任何一家设计公司,通过英特尔等代工厂,也有可能大规模生产推理芯片。
这对英伟达是致命的。如果算力变得像水电一样容易制造和获取,英伟达基于“稀缺性”建立的帝国将面临价值重估。
从这个角度上说,这次200亿美元的收购,倒像是一种预防性动作:
即便未来有人找到绕开这套体系的办法,那条新路也最好握在自己手里。
