本文来自微信公众号: 每日天使 ,作者:每日天使
这篇访谈可能是黄仁勋迄今为止最深入、最坦诚的一次对谈。
主持人Dwarkesh Patel以极强的逻辑推演能力,围绕Nvidia护城河的每一个层面——从供应链锁定、TPU竞争、CUDA生态到中国芯片出口管制——进行了层层追问。
黄仁勋在应对尖锐质疑时展现出了罕见的坦诚,包括承认自己错失了早期投资Anthropic的机会,以及对中国芯片出口管制政策直言不讳的反对。
对于任何关注AI基础设施投资、半导体行业竞争格局以及中美科技博弈的人来说,这都是一篇不容错过的深度访谈。
导语
黄仁勋(Jensen Huang),Nvidia联合创始人兼CEO,全球市值最高半导体公司的掌舵人。
在AI浪潮席卷全球的今天,Nvidia已成为AI算力的代名词——从ChatGPT到Claude,从Gemini到DeepSeek,几乎所有顶级AI模型都在Nvidia的GPU上训练和运行。
然而,围绕着Nvidia的核心问题始终存在:它的护城河究竟有多深?
当Google的TPU训练出了世界顶级模型Claude和Gemini,当Anthropic选择与Broadcom合作打造自研芯片,当中国芯片出口管制政策不断收紧——Nvidia的优势真的能持续吗?
在这场超过100分钟的深度对谈中,黄仁勋从供应链博弈、技术架构哲学、投资策略到地缘政治,全面阐述了他对Nvidia竞争地位的思考。
他坦承了过去的战略失误,回应了关于护城河可持续性的所有质疑,并就中美芯片之争发表了颇具争议性的观点。
对话实录
一、护城河本质:Nvidia到底是硬件公司还是软件公司?
主持人:我们看到很多软件公司的估值暴跌,因为人们预期AI会让软件商品化。
有一种看似天真的思路是:Nvidia把一个GDS2文件发给台积电,台积电制造逻辑芯片和交换芯片,然后用SK海力士、美光、三星制造的HBM进行封装,再送到台湾的ODM组装成机架。
Nvidia本质上在做软件,由别人来制造。如果软件被商品化了,Nvidia会不会也被商品化?
黄仁勋:归根结底,必须要有东西把电子转化为Token。从电子到Token的转化,并且让这些Token随着时间推移变得更有价值——这个过程很难被完全商品化。
从电子到Token的转化是一段不可思议的旅程。制作一个Token就像让一个分子比另一个分子更有价值,让一个Token比另一个Token更有价值。
这里面涉及的艺术性、工程、科学和发明——我们在实时见证这一切。
这个转化过程、制造过程、其中涉及的种种科学,远未被人深刻理解,这段旅程远未结束。我怀疑它会完全商品化。当然,我们会让它变得更高效。
你刚才的问题框架就是我对Nvidia的心智模型。输入是电子,输出是Token,中间是Nvidia。
我们的工作是做尽可能多必要的事情,同时也尽可能少——让这个转化以惊人的能力完成。
所谓"尽可能少"的意思是,凡是我不需要做的事情,我就与合作伙伴一起完成,把它纳入我们的生态系统。
黄仁勋:如果你看今天的Nvidia,我们可能拥有业界最大的合作伙伴生态系统——上游供应链、下游供应链、所有计算机公司、应用开发者和模型制作者。AI是一个五层蛋糕,如果可以这么说的话。
我们在所有五个层面都有生态系统。我们尽量少做,但我们不得不做的部分——事实证明——难到不可思议。我认为那不会被商品化。
实际上,我也认为企业软件公司、工具制造商的情况恰恰相反。大多数软件公司都是工具制造商。Excel是工具,PowerPoint是工具,Cadence做工具,Synopsys做工具。
我看到的情况与人们看到的恰恰相反。我认为AI智能体的数量会呈指数级增长,工具用户的数量也会呈指数级增长。所有这些工具的实例数量很可能会飙升。
很有可能Synopsys Design Compiler的实例数量会飙升,同时使用布线工具、布局工具和设计规则检查工具的智能体数量也会飙升。
今天我们受限于工程师的数量,明天这些工程师将被大量智能体辅助。我们将以前所未有的方式探索设计空间,而且我们会使用今天正在使用的工具。我认为工具使用的增长将使软件公司的价值飙升。
二、供应链锁定:1000亿美元采购承诺背后的战略逻辑
主持人:你们最近一次财报中显示,你们在晶圆厂、存储和封装方面的采购承诺接近1000亿美元。SemiAnalysis报告说你们的这类采购承诺将达到2500亿美元。
一种解读是Nvidia的护城河实际上在于你锁定多年稀缺组件的供应。别人可能有加速器,但他们能拿到存储芯片来制造吗?他们能拿到逻辑芯片来制造吗?这真的是Nvidia未来几年的核心护城河吗?
黄仁勋:这是我们能做到而别人很难做到的事情之一。我们做了大量的上游承诺,有些是显性的——就是你提到的这些承诺。有些是隐性的。
例如,很多上游供应链的投资是由我们的供应链伙伴完成的,因为我对那些CEO说:"让我告诉你这个行业会变得多大,让我解释原因,让我跟你一起推演,让我展示我看到的东西。"
作为这个向各行各业的CEO传达信息、启发和达成共识的过程的结果,他们愿意做出投资。
为什么他们愿意为我投资而不是为别人?原因在于他们知道我有能力购买他们的供应并通过下游销售出去。
事实上,Nvidia的下游供应链和我们的下游需求如此庞大,他们才愿意在上游进行投资。
如果你看GTC大会,人们对它的规模和参会者感到惊叹。这是一个完整的360度——整个AI宇宙汇聚一堂。
他们汇聚一堂是因为他们需要看到彼此。我把他们聚在一起,让下游能看到上游,上游能看到下游,所有人都能看到AI的进步。
更重要的是,他们都能见到AI原生企业、所有正在建设的AI初创公司,以及所有正在发生的惊人事物——这样他们就能亲眼见证我一直告诉他们的一切。
主持人:我确实想更具体地了解上游能否跟上。很多年来,你们每年都在将收入翻倍。你们每年提供的算力增长了三倍多。现在在这个规模上实现翻倍真的不可思议。
你们是台积电N3节点的最大客户,也是N2节点最大的客户之一。今年AI整体将占N3产能的60%,明年据SemiAnalysis预测将达到86%。
你们已经是大多数了,怎么再翻倍?而且年复一年地翻倍?我们现在是不是进入了一个AI算力增长率必须因为上游瓶颈而放缓的时期?
黄仁勋:在某个瞬间,瞬时需求大于世界上游和下游的供应链总量。在任何时刻,你可能被水管工的数量所限制——这确实发生过。
这是一个好状况。你希望一个瞬时需求大于行业总供应量的产业。相反的状况显然没那么好。如果差距太大,如果某个特定组件差距太大,整个行业会蜂拥而上。
例如,注意到现在人们不再怎么谈论CoWoS了。原因是过去两年我们疯狂地围攻这个问题。翻倍、翻倍、翻倍,好几个翻倍。现在我觉得我们的状况相当不错。
三、TPU竞争:Claude和Gemini都在TPU上训练意味着什么?
主持人:我们来谈谈你的竞争对手。如果你看TPU——世界上排名前三的模型中有两个,Claude和Gemini,都是在TPU上训练的。
这对Nvidia的未来意味着什么?
黄仁勋:我们构建的是完全不同的东西。Nvidia构建的是加速计算,不是一个张量处理单元。
加速计算被用于各种领域:分子动力学、量子色动力学、数据处理、数据框架、结构化数据和非结构化数据。它还用于流体动力学和粒子物理学。此外,我们还用它做AI。加速计算要多样化得多。
虽然AI是当今的讨论焦点,显然非常重要且影响深远,但计算远比AI更广泛。Nvidia重新定义了计算方式,从通用计算转向加速计算。
我们的市场覆盖面比任何TPU或ASIC可能达到的范围都要大得多。
主持人:这触及了一个关于Nvidia客户群的有趣问题。你们60%的收入来自五大超大规模云厂商。
在一个不同的时代、面对不同的客户——比如做实验的教授——他们需要CUDA,不能使用其他加速器。但这些超大规模云厂商有资源编写自己的内核。
事实上,为了获得特定架构最后5%的性能,他们必须这么做。Anthropic和Google主要使用自研加速器或TPU和Trainium。
即便是使用GPU的OpenAI,也有Triton,因为他们需要自己的内核。
黄仁勋:CUDA是一个丰富的生态系统。如果你想在任何计算机上首先进行构建,在CUDA上构建是非常明智的。
因为生态系统如此丰富,我们支持每个框架。如果你想创建自定义内核——例如,我们对Triton的贡献巨大。Triton后端有大量Nvidia技术。
我们很乐意帮助每个框架变得尽可能好。
主持人:如果大多数客户能够并且确实在用替代品取代CUDA,CUDA在多大程度上还是让前沿AI在Nvidia上发生的决定性因素?
黄仁勋:CUDA的丰富性、可编程性和能力是第一点。第二,如果你是一个开发者,你构建任何东西,最重要的一件事就是装机量。你希望你的软件能在大量其他计算机上运行。
Nvidia的CUDA生态系统最终是我们最大的宝藏。我们现在有几亿块GPU。每个云都有它。
从A10、A100、H100、H200到L系列、P系列,种类繁多。如果你是一家机器人公司,你希望CUDA栈能直接运行在机器人中。
我们无处不在。装机量意味着一旦你开发了软件或模型,它到处都能用。这有着难以置信的价值。
主持人:那为什么Anthropic几天前刚宣布了与Broadcom和Google的多GW级TPU合作?
黄仁勋:Anthropic是一个独特的个案,不是趋势。没有Anthropic,TPU还有增长吗?100%是因为Anthropic。
没有Anthropic,Trainium还有增长吗?100%是因为Anthropic。这相当为人所知和被理解。
ASIC的机会并不是遍地都是。世界上只有一个Anthropic。我们还有能力每一年推出重大飞跃。
主持人:但他们的逻辑是:"嘿,它不需要更好,只要不比Nvidia差超过70%就行",因为他们支付给你70%的毛利。
黄仁勋:别忘了,即使是ASIC的利润率也非常高。Nvidia的利润率是70%,但ASIC的利润率是65%。
你到底省了什么?从Broadcom之类的公司?当然。你总得付钱给谁。据我所知,ASIC利润率非常高,他们对此也相当自豪。
四、错失投资:为什么Nvidia没有更早投资Anthropic?
主持人:很多年来,Nvidia一直是AI领域赚钱最多的公司。现在你们在投资。据报道,你们向OpenAI投资了300亿美元,向Anthropic投资了100亿美元。
但如果在过去的多年里,当你在为他们提供算力时,当你看到它的发展方向时,当他们的估值还只有现在的十分之一时——而你又有这么多现金——有一个世界是Nvidia自己成为基础模型实验室,或者更早以更低的估值完成你们现在达成的交易。
为什么没有更早做?
黄仁勋:我们一有能力就这么做了。我们一有能力就这么做了,如果我能更早,我一定会更早做。
在Anthropic需要我们做这件事的时候,我们就是没那个能力。那不在我们的思维范畴内。
主持人:怎么讲?是资金问题吗?
黄仁勋:是的,投资规模。我们当时从未在公司外部投资过,更不用说那么多了。我们没有意识到需要这样做。我一直以为他们可以去VC那里融资,天哪,所有公司都是这样的。
但他们试图做的事情不可能通过VC完成。OpenAI想做的事情不可能通过VC完成。我现在认识到了。那时我不知道。但那是他们的天才之处。这就是他们聪明的地方。
他们当时就意识到必须这样做。我很高兴他们这样做了。即使是我们导致Anthropic不得不去别处,我仍然很高兴那件事发生了。Anthropic的存在对世界来说是件好事。
主持人:你现在还是在赚很多钱,而且你每个季度赚得越来越多。有遗憾也是可以的。
那么问题来了——既然你们有这么多现金,Nvidia应该用它做什么?
黄仁勋:有一个答案就是,有一个中间商生态系统出现了,把这些实验室的资本支出转化为运营支出,以便他们可以租用算力。
因为芯片真的很贵,它们在使用寿命内产生大量收益,因为AI模型在变得更好。Nvidia有资金做资本支出。
主持人:据报道,你们为CoreWeave提供了最多63亿美元的担保,并投资了20亿美元。为什么Nvidia不自己成为云服务商?
黄仁勋:这是公司的哲学,我认为这是明智的。我们应该做尽可能多的必要之事,同时尽可能少。
这意味着,我们构建计算平台所做的工作——如果我们不做,我真心认为没人会做。
如果我们不承担我们承担的风险——如果我们不按我们构建的方式构建NVLink,如果不构建整个技术栈,如果不创建我们那样的生态系统,如果不20年如一日地致力于CUDA(大部分时间都在亏钱)——如果我们不做,没人会做。
黄仁勋:但世界已经有很多云了。如果我不做,会有人出现。按照这个哲学——做尽可能多的必要之事,尽可能少——这个哲学存在于我们今天的公司中。我做的每件事,都用这个视角。
在云服务方面,如果我们不支持CoreWeave存在,这些新的AI云就不会存在。如果我们不帮助CoreWeave存在,他们就不会存在。
如果我们不支持Nscale,他们就不会有今天的地位。如果我们不支持Nebius,他们就不会是今天的样子。现在他们做得棒极了。
主持人:你们为什么不挑赢家?
黄仁勋:因为那不是我们的工作。第二,当Nvidia刚成立时,有60家3D图形公司。我们是唯一存活下来的。
如果你拿那60家图形公司来问哪一家会成功,Nvidia会在"不会成功"的名单上排在前面。
因为Nvidia的图形架构在根本上是错误的。不是稍微错误,是完全错误。我们创建的架构是不可能让开发者支持的。它注定不会成功。
我们从好的第一性原理出发推理,但最终得到了错误的答案。
每个人都会把我们排除在外。然而我们在这里。所以我有足够的谦逊来认识到这一点。不要挑赢家。要么让他们各自照料自己,要么照料他们所有人。
五、GPU分配:Nvidia如何分配稀缺的算力资源?
主持人:我们在这个GPU短缺的状态中生活了很多年。
Nvidia以不仅仅按出价高低来分配稀缺配额而闻名,而是说:"嘿,我们要确保这些新云存在。给CoreWeave一些,给Crusoe一些,给Lambda一些。"
这对Nvidia有什么好处?你同意这种市场分化的描述吗?
黄仁勋:不同意。不同意。你的前提就是错的。我们对这些事情非常谨慎。首先,如果你不下采购订单(PO),说再多也没用。
在我们拿到PO之前,我们能做什么?所以第一件事是,我们非常努力地与每个人一起完成预测,因为这些东西需要很长时间来建造,数据中心也需要很长时间来建造。
我们通过预测来对齐需求和供给。这是第一要务。
第二,我们试图与尽可能多的人进行预测,但最终分析下来,你仍然需要下订单。
也许出于某种原因,你没下单。我能怎么办?在某个时刻,就是先到先得。
主持人:所以听起来是有一个队列,然后根据你的数据中心准备情况和下单时间,你在特定时间拿到它们。
但这仍然不像是出价最高者就能拿到。为什么不按出价高来分配?
黄仁勋:我们从不这样做。从不。为什么?因为那是糟糕的商业实践。你设定价格,然后人们决定买或不买。
我知道芯片行业其他公司在需求高的时候会调整价格,但我们不会。这从来不是我们的做法。你可以依赖我们。
我宁愿成为可信赖的、作为行业基石的存在。你不需要反复猜测。如果我给你报了价,那就是我们的报价。如果需求暴涨,那就这样吧。
主持人:这也是你和台积电有良好合作关系的原因吧?
黄仁勋:是的,Nvidia和台积电合作大概快30年了。Nvidia和台积电之间没有法律合同。总有一些大致的公平。
有时我是对的,有时我错了。有时我拿到了更好的交易,有时更差。但总的来说,这种关系令人难以置信。我可以完全信任他们,完全依赖他们。
关于Nvidia,你可以确信的是——今年,Vera Rubin将会不可思议。明年,Vera Rubin Ultra会来。
再下一年,Feynman会来。再下一年,我还没公布名字。每一年你都可以指望我们。
黄仁勋:你需要去世界上找另一个ASIC团队——随便你挑——然后说:"我可以把整个公司押上去,我可以赌上我全部的业务,你会每年都在这里为我服务。
你的Token成本每年会降低一个数量级。我可以像信赖时钟一样信赖你。"我刚说了一些关于台积电的话。
在历史上没有任何其他代工厂,你能对它说出这样的话。今天你可以对Nvidia说这样的话。
六、中国芯片:出口管制的代价与美国的未来
主持人:我想谈谈中国。我其实不知道把芯片卖给中国好不好,但我想扮演魔鬼代言人。
Dario支持出口管制,所以我问他:为什么美国和中国不能各自在数据中心里拥有一群天才?
但既然你站在相反的立场,我就从相反方向来问。Anthropic几天前宣布了Mythos Preview。他们说这个模型拥有如此强大的网络攻击能力,在确保零日漏洞被修补之前,世界还没准备好。
他们说它发现了每一个主要操作系统、每一个浏览器中的数千个高危漏洞。它在OpenBSD——这个专门设计为不存在零日漏洞的操作系统——中发现了一个已存在27年的漏洞。
如果中国公司和实验室以及中国政府能够获得AI芯片来训练像Claude Mythos这样具有网络攻击能力的模型,并以更多算力运行数百万个实例——问题是,这是否对美国公司和美国国家安全构成威胁?
黄仁勋:首先,Mythos是在相当普通的算力上训练的,数量也相当普通。由一家非凡的公司训练。他们使用的算力数量和类型,在中国plentiful(充裕)。
所以你首先得认识到——芯片在中国是存在的。他们制造了世界上60%的主流芯片,可能更多。这对他们来说是一个非常大的产业。他们拥有一些世界上最伟大的计算机科学家。
如你所知,这些AI实验室中的大多数AI研究人员都是中国人。他们拥有世界50%的AI研究人员。
所以问题是,考虑到他们已经拥有的所有资产——他们有充沛的能源,有大量的芯片,有大多数AI研究人员——如果你担心他们,创造安全世界的最佳方式是什么?
把他们变成受害者、变成敌人,很可能不是最好的答案。
主持人:是的,他们有芯片,但有些估算显示,因为他们停留在7nm——由于芯片制造出口管制,他们没有EUV——他们能实际产生的算力只有美国的十分之一。
所以凭借这个,他们最终确实能训练出像Mythos这样的模型吗?是的。但问题是,因为我们有更多算力,美国实验室能先达到这些能力水平。
因为Anthropic先达到了,他们说:"好吧,我们先保留一个月,让所有美国公司获得访问权限,让他们修补所有漏洞,然后我们再发布。"
黄仁勋:我们应该始终领先,我们应该始终拥有更多。但为了让你描述的这种结果成立,你必须把它推到极端。
他们必须完全没有算力。如果他们有一些算力,问题是要多少才够?
中国拥有的算力数量是巨大的。你说的是世界第二大计算市场。如果他们想聚集他们的算力,他们有大量的算力可以聚集。
主持人:但那真的吗?人们做这些估算,说SMIC实际上在工艺节点上落后——
黄仁勋:我马上就告诉你。他们拥有的能源数量令人难以置信。AI是一个并行计算问题,不是吗?
为什么他们不能把4倍、10倍多的芯片放在一起,因为能源是免费的?他们有如此多的能源。他们的数据中心完全是空的,但电力完全充足。他们有鬼城,他们也有鬼数据中心。
他们有如此多的基础设施产能。如果他们想的话,只需要把更多芯片——即使是7nm的——组合在一起。他们制造芯片的能力是世界上最大的之一。
半导体行业知道他们在主流芯片领域形成了垄断。他们的产能过剩,产能太多了。所以认为中国无法拥有AI芯片的想法完全是胡说。
黄仁勋:你误解了AI是一个五层蛋糕,最底层是能源。当能源充沛时,可以弥补芯片的不足。如果芯片充沛,可以弥补能源的不足。
例如,美国在能源上是稀缺的,这就是为什么Nvidia必须不断推进我们的架构,做这种极限协同设计——让我们出货的少量芯片(因为能源极其有限)的每瓦吞吐量高到离谱。
但如果你的瓦数完全充沛,免费,你还在乎每瓦性能做什么?你已经足够了。你可以用旧芯片来做。
所以7nm芯片基本就是Hopper。Hopper的能力……我得告诉你,今天的模型很大程度上是在Hopper一代上训练的。
所以7nm芯片完全够用。充沛的能源是他们的优势。
主持人:但还有一个问题是他们能不能实际制造足够的芯片。
黄仁勋:但他们确实可以。证据是什么?华为刚刚度过了公司历史上单年最好的一年。
他们出货了多少芯片?一吨。几百万块。几百万块远超Anthropic拥有的数量。
主持人:关于训练和推理这些模型的瓶颈——存储带宽——7nm的HBM2和你们最新的东西之间可能有一个数量级的差异——
黄仁勋:华为是一家网络公司。但这不改变你需要EUV来制造最先进HBM的事实——完全不是事实。你可以像我们用NVL72那样把它们组合在一起。
他们已经展示了硅光子技术,把所有这些计算连接成一个巨大的超级计算机。你的前提就是错的。
事实是,他们的AI发展一切顺利。世界上最好的AI研究人员,因为受到算力限制,也想出了极其聪明的算法。
我们得承认,AI的大多数进步来自算法进步,不仅仅是原始硬件。
主持人:所以让美国的计算能力率先达到Mythos级别,让美国公司先准备社会应对措施,在中国能够达到之前——这就是向中国出售芯片的代价。
你承认这是一种潜在代价吗?
黄仁勋:我也要告诉你潜在的代价是——我们让AI技术栈中最重要的层级之一——芯片层——放弃了整个市场——世界第二大市场——让他们发展规模,让他们发展自己的生态系统,让未来的AI模型以与美国技术栈完全不同的方式进行优化。
随着AI扩散到世界其他地区,他们的标准、他们的技术栈将变得优于我们的,因为他们的模型是开放的。
主持人:中国是开源软件的最大贡献者。事实。中国是开源模型的最大贡献者。事实。今天它建立在Nvidia的美国技术栈上。事实。AI技术栈的所有五个层都很重要。美国应该在所有五个层都赢。
当然,最重要的是AI应用层——渗透到社会中最广泛使用的那一层将从这个工业革命中获益最多。
但我的观点是每一层都必须成功。如果我们因为把AI吓成某种核弹——让每个人都讨厌AI、每个人都害怕AI——我不知道你在怎么帮助美国。你在伤害它。
黄仁勋:我把这番话prediction记在这里。当我们想让美国技术栈——当我们想让美国技术扩散到世界各个角落——印度、中东、非洲、东南亚——当我们的国家想要出口技术、出口标准的那一天——我希望你和我再次进行同样的对话。
我会确切地告诉你今天对话的后果——你的政策和你的想象,字面意义上导致了美国毫无理由地放弃了世界第二大市场。
我们不应该放弃它。如果我们输了,那就输了。但为什么要主动放弃?
主持人:你引用了Dario的话:"这就像波音吹嘘我们在向朝鲜卖核弹,但弹壳是波音制造的,这就叫推动美国技术栈。"
黄仁勋:把AI和你提到的任何东西做比较都是疯狂的。但AI类似于浓缩铀,对吧?它有正面用途,也有负面用途。我们仍然不想把浓缩铀送到其他国家。
这是芯片,而且他们自己就能造。但他们还是从你这里买——说明你的更好。我们的芯片就是更好,毫无疑问。
在我们芯片缺席的情况下——你能承认华为创了纪录吗?你能承认一大批芯片公司上市了吗?你能承认吗?
主持人:能。你也能承认我们曾经在那个市场有很大的份额,而我们不再有了吧?
黄仁勋:我们也可以承认中国约占世界科技产业的40%。对美国科技产业来说,放弃这个市场就是对我们国家的伤害。
对我们国家安全的伤害。对我们技术领导力的伤害——这一切只为了让一家公司受益。这对我来说毫无意义。
主持人:你现在的论点似乎是——如果中国首先达到了Mythos级别并发现了美国软件中所有安全漏洞,而且他们可以把它部署到全球南方——这是坏事。但如果他们在Nvidia硬件上做这件事呢?
黄仁勋:你在跟我说话的那个前提是——如果优化了Nvidia的模型然后尝试在别的东西上运行——但美国实验室确实这么做了。
而且它们跑得不好。Nvidia的成功就是完美的证据。AI模型在我们的技术栈上创建,在我们的技术栈上运行最好——这有什么不符合逻辑的?
黄仁勋:你现在谈论的"失败者"心态、"失败者"前提——对我来说毫无意义。我们不是一辆车。计算不是那样运转的。这就是x86体系存在的原因。这就是ARM如此粘性的原因。
这些生态系统很难被替换。它需要巨大的时间和精力,大多数人不想这么做。所以我们的工作是继续培育那个生态系统,继续推进技术,以便我们能在市场上竞争。
基于你描述的前提放弃一个市场——我无法承认。这毫无意义。因为我不认为美国是一个失败者。我们的行业不是失败者。
七、多架构战略:为什么Nvidia不做多种芯片架构?
主持人:我们刚才讨论了台积电和存储等方面的瓶颈。如果我们在这样一个世界里——你已经是N3的大多数了——在某一点你会成为N2的大多数。
你会考虑回到N7,利用旧工艺节点的富余产能,说:"AI的需求如此之大,而我们在扩展前沿方面的产能跟不上,所以我们要做一个Hopper或Ampere,但融入我们今天对数值计算的所有了解以及其他所有改进"?
你预见在2030年前会发生这种情况吗?
黄仁勋:没有必要。
原因在于每一代架构都不仅仅是晶体管尺寸的缩放。你做了大量的工程和封装和堆叠,以及数值计算和系统架构。当你用完产能时,要轻松回到另一个节点——那是没人能负担得起的研发水平。
我们能负担向前冲,但负担不起回头。现在如果世界真的说——让我们做一个思想实验——在那一天我们说:"听着,我们永远不会再有更多产能了。"我会回到7nm吗?眨眼之间就会,当然会。
主持人:为什么Nvidia不同时运行多个完全不同架构的芯片项目?比如Cerebras式的晶圆级、Dojo式的大型封装,或者一个没有CUDA的版本。
你有资源和工程人才来并行做所有这些。为什么要把鸡蛋放在一个篮子里,谁知道AI会往哪走、架构会怎么变?
黄仁勋:我们可以。只是我们没有更好的想法。我们可以做所有那些事。只是不太好。我们在模拟器里模拟了所有方案,可证明更差。
所以我们不会去做。我们正在做的恰恰是我们想要做的项目。如果工作负载发生剧烈变化——我不是说算法,我是说工作负载,这取决于市场形态——我们可能会决定添加其他加速器。
例如,最近我们添加了Groq,我们将把Groq纳入我们的CUDA生态系统。我们现在这样做是因为Token的价值已经涨到如此之高,以至于你可以有不同定价的Token。
就在几年前,Token要么免费,要么几乎不花钱。但现在你可以有不同客户,这些客户想要不同的答案。
因为客户赚很多钱——例如我们的软件工程师——如果我能给他们响应速度更快的Token,让他们比今天更有生产力,我愿意为此付费。
八、没有AI的世界:Nvidia还会是什么?
主持人:最后一个问题。假设深度学习革命没有发生,Nvidia会做什么?
黄仁勋:显然是游戏,但加速计算和我们一直以来在做的一样。我们公司的前提是——摩尔定律会让通用计算在很多方面很好用,但对很多计算来说并不理想。
所以我们将一种叫做GPU的架构——CUDA——与CPU结合,这样我们就能加速CPU的工作负载。不同的代码内核或算法可以被卸载到我们的GPU上。结果是,你把一个应用的运行速度提升了100倍、200倍。
这能用在哪里?显然是工程、科学、物理、数据处理、计算机图形、图像生成等等所有领域。
即使今天没有AI,Nvidia也会是非常非常大的公司。原因相当根本——通用计算持续扩展的能力在很大程度上已经到了尽头。
唯一的方式——不是唯一,但是方式——是通过特定领域的加速来实现。
黄仁勋:我们开始的领域之一是计算机图形,但还有很多其他领域。粒子物理和流体、结构化数据处理、各种受益于CUDA的不同类型算法。
我们的使命真的是把加速计算带给世界,推进通用计算无法实现的应用类型,并扩展到帮助突破某些科学领域的水平。
早期的一些应用包括分子动力学、用于能源勘探的地震处理、当然还有图像处理——所有通用计算效率实在太低的领域。
如果没有AI,我会很伤心。但因为我们推进计算所取得的进展,我们民主化了深度学习。
我们让任何研究人员、任何科学家、任何地方、任何学生都能使用一台PC或一块GeForce显卡来做惊人的科学。那个基本承诺没有改变,一丝一毫都没有改变。
主持人:Jensen,非常感谢你。
黄仁勋:不客气。我很享受。
主持人:我也是。
