英伟达通过GTC 2026展现了其作为全球AI产业"总设计师"的野心,从芯片到能源垂直整合五层技术栈,实质承担了美国AI基建的规划职能,形成商业与国家战略的深度绑定。 --- ## 1. 五层技术栈的垂直整合战略 - **能源层**:黄仁勋将能源定义为AI的"绝对约束条件",英伟达研发太空数据中心应对电力限制,Vera Rubin系统每瓦性能提升50倍。 - **芯片层**:发布"芯片联合国"Vera Rubin系统,整合7种芯片(含自研88核CPU),通过解耦推理架构实现高吞吐与低延迟协同。 - **基础设施层**:NVLink互联架构升级为独立产品线,Omniverse平台协调全球数据中心设计,宣称Token吞吐量达传统架构350倍(7亿/秒 vs 200万/秒)。 --- ## 2. 产业生态的深度控制 - **模型层**:组建Nemotron联盟绑定Black Forest Labs等AI公司,确保CUDA生态独占性,形成开发者飞轮效应。 - **应用层**:发布OpenClaw智能体操作系统("AI时代的Windows"),与比亚迪等车企合作自动驾驶,110台机器人现场展示物理世界渗透。 - **供应链话语权**:分配台积电(GPU/CPU)与三星(LPU)代工任务,直接影响云厂商(AWS/Azure/谷歌云)的AI业务天花板。 --- ## 3. 国家战略的商业化执行 - **万亿级基建规划**:英伟达2027年1万亿美元需求预测与美国《基础设施法案》新增投资(5500亿)同量级,实质承担产业规划职能。 - **技术-政治协同**:美国政府通过芯片出口管制限制技术外流,英伟达则通过市场机制配置资源,形成"堵疏结合"的默契分工。 - **垄断合理化话术**:黄仁勋以"垂直整合是技术必然性"回应潜在反垄断审查,将商业垄断包装为产业发展的必要前提。 --- ## 4. 能源约束下的终极布局 - **电力危机应对**:AI数据中心耗电量激增,太空数据中心项目"Vera Rubin Space-1"提前布局地球外算力基础设施。 - **全栈能效控制**:从芯片架构(成本降35倍)到数据中心选址,英伟达已介入能源全链条规划,掌握底层约束等于控制产业上限。
美国的“阳谋”:让英伟达充当AI基建的“小发改委”
2026-03-19 08:37

美国的“阳谋”:让英伟达充当AI基建的“小发改委”

本文来自微信公众号: 心智观察所 ,作者:心智观察所


2026年3月17日凌晨,圣何塞SAP中心的灯光徐徐熄灭,空旷的场馆里响起一段乡村音乐。台下坐着一万八千名观众,屏幕前还有数百万人在等待同一个人——黄仁勋。几分钟后,他穿着那件熟悉的黑色皮夹克走上舞台,没有惊喜,也不需要。这件夹克,已经成了一种符号:只要它出现在台上,就意味着未来一年全球AI产业的资源流向、技术路线,甚至地缘格局,都将被重新定义。


这并非夸张。回顾整场GTC 2026主题演讲,表面上看是琳琅满目的新品发布——DLSS 5、Vera CPU、Groq LPU、Vera Rubin NVL72、OpenClaw智能体操作系统、Nemotron联盟,甚至还有一个太空数据中心项目。但如果你只盯着这些产品,就很容易错过黄仁勋真正想说的话。他在演讲中反复使用一个词:工厂。数据中心不再是存放文件的地方,而是生产Token的工厂;Token是新时代的大宗商品;而英伟达,是这座工厂的总设计师、总包工头,也是调度中心。


英伟达在GTC 2026上展现的野心,从他在大会前一周写的那篇博客里就能看出。在那篇以第一性原理展开的长文里,他把AI产业比作一块“五层蛋糕”,从下到上分别是:能源、芯片、基础设施、模型、应用。这个分层方式本身就耐人寻味——芯片不是最底层,能源才是。用他的话来说,能源是AI基础设施的“第一性原理”,是决定系统能产出多少智能的“绝对约束条件”。


每一个Token的背后,都是电子的运动、热量的管理,是能量向计算的转化。这之下,再无抽象层。而蛋糕的最顶端是应用,黄仁勋说得很直白:每一个成功的应用,都会拉动它下面的所有层级,一路追溯到为它供电的发电厂。过去十年,英伟达的战略路径非常清晰——从一家GPU公司出发,逐层扩张,直到把这五层蛋糕全部纳入掌控。GTC 2026,正是这块蛋糕“封顶”的时刻。


先从第二层的芯片说起。这次最核心的硬件发布是Vera Rubin系统,但它更像一个“芯片联合国”。整套系统横跨五个机架,内部集成了七种不同的芯片:Vera CPU负责高单核性能的通用计算,Rubin GPU主打并行计算,Groq 3 LPU则专攻低延迟推理。这里值得多说一句Groq LPU的角色——黄仁勋花了不少时间解释“低延迟与高吞吐是天敌”这个命题。


传统架构下,你要么选高吞吐(一次处理大量请求,但每个请求等得久),要么选低延迟(响应快,但处理总量有限)。英伟达的解法是“解耦推理”:用Rubin GPU做高吞吐的批量推理,用Groq LPU做低延迟的实时响应,两者通过NVLink融合成一个系统。这不是简单地把两颗芯片拼在一起,而是一种全新的系统架构哲学。而这一哲学,正好呼应了他博客里提到的“实时生成智能”的需求:智能不再是预录好的,而是按需推理、即时生成的,因此芯片层的设计逻辑,必须彻底重构。


更值得玩味的是88核Vera CPU的发布。英伟达过去十几年一直被看作GPU公司,CPU市场是英特尔和AMD的地盘。但Vera CPU的出现,意味着英伟达不再满足于做“加速器”——它要做整台机器。黄仁勋在台上说,Vera CPU专为高单核性能设计,与机架配合用于智能体处理。翻译过来就是:未来英伟达的客户买一个完整的AI计算节点,不需要再去英特尔或AMD那里买CPU了。一个Vera Rubin机架里,256颗Vera CPU全部采用液冷,从处理器到散热方案,全是英伟达自己搞定。这是“垂直整合”最直白的宣言。


再往上看第三层——基础设施。黄仁勋在博客中对这一层的定义,远超传统认知:它不仅包括芯片,还包括土地、电力输送、散热系统、建筑施工、网络,以及将数万个处理器编排成一台机器的系统。他管这些叫“AI工厂”,设计目的不是存储信息,而是制造智能。在GTC现场,这一层的野心通过互联架构和系统设计展现得淋漓尽致。黄仁勋演示Rubin Ultra的NVLink架构时,用了一个比喻:计算单元在前,扩展互联架构在后。潜台词是,英伟达已经不把互联看作芯片的“附属品”,而是和芯片同等重要的独立产品线。


从NVLink到NVSwitch,再到未来Feynman系统中预告的Kyber,英伟达正在搭建一套由自己定义的数据中心内部“公路系统”。谁控制了芯片之间的通信协议和硬件,谁就控制了整个系统的扩展能力。这也是为什么黄仁勋敢在台上说“对比x86加Hopper架构,Vera Rubin的Token吞吐量是前者的350倍”——7亿Token每秒对200万Token每秒,差距不是来自单颗芯片的进步,而是来自整个基础设施层的代际跃迁。而英伟达的Omniverse平台,让它能与供应商虚拟会面、协同设计数据中心,目标是“不浪费一丝功耗”。这句话说得轻巧,但背后的意思是:英伟达已经在扮演整个AI工厂供应链的“总协调者”。


到了第四层的模型层面,英伟达的手也伸了过来。这次GTC宣布了Nemotron联盟,成员包括Black Forest Labs、Perplexity、Mistral、Cursor等一批当红AI公司。英伟达声称Nemotron 3 Ultra将成为全球最强基座模型,并为Nemotron 4组建联盟。黄仁勋在博客中写道,模型已经跨过了能在规模化层面真正发挥作用的门槛——语言模型只是其中一类,最具变革性的工作正发生在蛋白质AI、化学AI、物理模拟、机器人技术和自主系统领域。通过组建Nemotron联盟,英伟达可以确保这些AI公司的模型在英伟达硬件上得到最优适配,同时也确保它们深度绑定CUDA生态。黄仁勋在演讲中反复提到的CUDA“飞轮效应”——吸引开发者,开发者基于CUDA开发,更多人采用英伟达硬件,循环持续——在Nemotron联盟身上得到了最完美的体现。这不是简单的商业合作,这是一种产业组织行为。


五层蛋糕的最顶端是应用。黄仁勋在博客中说,应用层是经济价值被创造出来的地方——药物发现平台、工业机器人、法律辅助工具、自动驾驶汽车,“一辆自动驾驶汽车就是具身于机器中的一个AI应用”。GTC现场对此做了充分展示:110台机器人亮相,宣布与比亚迪、现代、日产的自动驾驶合作,与优步(Uber)在部分城市接入自动驾驶出租车网络。英伟达还发布了OpenClaw智能体操作系统,黄仁勋将其定义为“AI时代的Windows”——两行Shell命令就能启动一个AI智能体,NemoClaw则为企业提供安全框架。从云端的Token工厂到地面的自动驾驶出租车,英伟达正在把自己的触角从虚拟世界延伸到物理世界的每一个角落。


然而,最耐人寻味的,是黄仁勋把能源放在五层蛋糕的最底层。在博客中他写得很直白:能源是系统能产出多少智能的“绝对约束条件”。而在GTC现场,他用行动证明了这一点:英伟达正在研发名为“Vera Rubin Space-1”的太空数据中心系统。虽然目前仍处早期阶段,但这个信号极其重要——英伟达已经在考虑地球表面的电力和散热限制无法满足AI算力需求的那一天。与此同时,黄仁勋反复强调Vera Rubin每瓦性能提升50倍、成本降低35倍。


这些数字背后是一个严峻的现实:AI数据中心正在吞噬惊人的电力。英伟达不得不介入能源规划——从芯片架构的能效优化,到数据中心选址对电网的要求,再到太空数据中心这种终极方案。一家芯片公司在讨论电力规划和商业航天,这在十年前是不可想象的。但如果你理解了那块五层蛋糕的逻辑,就会明白:控制了最底层的能源约束,就控制了整栋大楼的高度。


这正是本文想要探讨的核心命题:英伟达已经不是一家公司了——至少不是传统意义上的公司。它更像是美国AI基建领域的“总设计师”或“产业规划局”,承担着产业规划、资源配置和上下游协调的职能。



这个判断听起来激进,但GTC 2026以及那篇博客长文,提供了大量佐证。黄仁勋自己写了“每一家企业都将使用它,每一个国家都将建设它”,又在GTC上预告未来一年需求将翻倍——“我预计到2027年,这一数字至少达到1万亿美元。”一万亿美元的AI基础设施投资,这已经不是一家公司的销售预测,这是一个国家级基建规划的数字。


作为对比,美国2021年通过的《基础设施投资和就业法案》总金额约1.2万亿美元,其中真正用于新增基建投资的约5500亿美元。英伟达一家公司在AI领域的需求订单,已经与美国联邦政府的传统基建投资计划同一量级。


再看英伟达对云服务商的“安排”就更清楚了。黄仁勋在台上宣布,OpenAI今年将登陆AWS。这句话表面上是OpenAI和亚马逊的商业合作,但仔细想想:为什么是英伟达的CEO在GTC上宣布这个消息,而不是OpenAI或AWS自己?因为英伟达手握GPU产能分配权。黄仁勋自己说了:“众所周知,OpenAI完全受算力限制。”谁能给OpenAI算力?英伟达。算力部署在哪朵云上?英伟达说了算——至少它拥有巨大的影响力。


当全球AI训练和推理几乎百分之百依赖CUDA生态时,英伟达对微软Azure、AWS、谷歌云的GPU供货节奏,实质上决定了这三大云厂商各自的AI业务天花板。黄仁勋在演讲中提到,老旧Ampere架构GPU在云端的价格反而在上涨——这不是市场自然行为,这是供给端高度集中时的价格信号。


从远东的代工格局来看,英伟达的“总指挥”角色同样清晰。台积电为英伟达代工最先进的GPU和CPU,这已是公开的秘密。但Groq LPU的代工被普遍认为由三星承接——这意味着英伟达在两家亚洲半导体巨头之间进行了精准的任务分配:把对制程精度要求最高的逻辑芯片交给台积电,把对先进封装和特殊工艺有需求的专用芯片交给三星。英伟达不仅在设计芯片,它还在全球范围内“排产”——决定哪家代工厂生产什么、优先级如何、产能怎么分配。这种能力,在传统产业组织理论中,通常只有政府规划部门才具备。


回到黄仁勋预告的2028年Feynman系统路线图:全新GPU、全新LPU、名为Rosa的全新CPU、Bluefield 5网卡,以及支持铜互连与CPO规模化的Kyber互联模块。这条路线图本身就是一份产业政策文件——它不仅告诉英伟达自己的工程师未来三年该做什么,也告诉台积电该为哪些制程节点预留产能,告诉三星该投资哪些封装技术,告诉所有ODM和OEM该按什么时间表设计下一代服务器,告诉所有云服务商该如何规划未来三年的资本支出。黄仁勋在博客里写“我们已经投入了数千亿美元,未来还有数万亿美元的基础设施需要建设”——当一家公司的产品路线图能够牵动数万亿美元级别的全球资本开支,它就已经不仅仅是一家公司了。


现在回到那个根本性问题:英伟达集中的到底是商业力量还是“国家意志”?


答案可能是两者兼有,而且这恰恰是最精妙之处。


从美国政府的角度看,AI是21世纪最重要的战略技术,而AI算力的供给几乎完全取决于英伟达一家公司。与其用行政命令和政府机构来规划AI基建——这不符合美国的政治传统和市场经济理念,不如让一家拥有绝对技术优势和市场地位的公司来充当“市场化的产业协调者”。英伟达拿到的,不是政府合同(虽然也有一部分),而是一种更隐蔽、更高效的角色:它通过技术标准(CUDA)、供应链控制(GPU产能分配)和生态建设(Nemotron联盟、OpenClaw),实质性地承担了美国AI产业规划的职能。


黄仁勋在演讲中说了一句意味深长的话:“垂直整合,但水平开放——我们别无选择。”他自己也承认,这可能会引起FTC(美国联邦贸易委员会)的关注。但他紧接着给出了理由:在加速计算领域,必须为客户提供全栈方案。这套话术的精妙之处在于,它把英伟达的垄断性地位包装成一种“技术必然性”——不是我们想垄断,是这个领域的技术特性决定了必须有人来做全栈整合,而我们恰好是最有能力的那个。


回看他博客中那块五层蛋糕:能源→芯片→基础设施→模型→应用,英伟达至少在中间三层拥有绝对主导权,而在最底层的能源和最顶层的应用,它也在快速渗透。当一家公司能同时影响发电厂的选址和自动驾驶出租车的运营,“垂直整合”这个词已经不足以形容它了。


这是不是美国政府的一个“阳谋”?从结果论来看,确实如此。美国政府通过芯片出口管制(限制英伟达高端GPU对中国的出口),确保了最先进的AI算力留在美国及其盟友体系内;通过《芯片法案》的补贴,确保了先进制造能力向美国回流;而英伟达则在市场层面完成了产业组织和资源协调的工作。政府管“堵”——限制技术流向竞争对手,英伟达管“疏”——把留下来的资源高效配置到正确的地方。两者分工明确,配合默契。黄仁勋在博客里那句“每一个国家都将建设它”,读起来像是对全球的邀请,实际上也是对美国优先地位的确认——因为建设AI基础设施所需的最核心零部件,从GPU到互联到软件栈,全部掌握在英伟达手中。


当然,把英伟达简单等同于“美国的发改委”未免过于简化。英伟达归根结底是一家追求利润最大化的上市公司,它的行为逻辑首先是商业逻辑而非政策逻辑。但历史上不乏这样的先例:一家公司的商业利益与国家战略高度吻合时,它会自然而然地承担起准公共职能。19世纪的东印度公司如此,20世纪的AT&T在电信领域如此,21世纪的英伟达在AI领域同样如此。区别在于,英伟达的“权力”不是来自政府特许,而是来自技术壁垒和生态锁定——这让它的角色更加隐蔽,也更加稳固。


GTC 2026的最后一幕颇具隐喻意味:多台机器人围坐在篝火旁,与黄仁勋一起唱着AI生成的乡村歌曲。这个画面看起来温馨而无害,但换个角度看:一个人坐在中间,周围是他一手打造的机器,唱着他的算法写的歌。这不就是英伟达与整个AI产业的关系缩影吗?黄仁勋坐在那块五层蛋糕的中央,向下俯瞰:能源为他供电,芯片是他设计的,基础设施是他规划的,模型越来越多地被纳入他的联盟体系,应用层的自动驾驶汽车和机器人跑着他的软件栈。而这块蛋糕的烘焙,消耗着台积电和三星的先进产能、美国西部的电力资源,乃至未来的太空轨道。


如今,英伟达不仅定义了AI计算的技术标准,还在事实上规划着全球AI产业的资源配置。这是商业成功,也是美国国家战略在市场经济框架下的一种独特实现方式。叫它“阳谋”也好,叫它“时势造英雄”也罢,有一点是确定的:在可预见的未来,理解全球AI竞争格局,必须先理解那块五层蛋糕——以及它为什么把能源放在了最底下。

AI创投日报频道: 前沿科技
本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。
正在改变与想要改变世界的人,都在 虎嗅APP