GTC对话黄仁勋:我眼中的GPU,和别人有很大差别
2024-03-21 08:04

GTC对话黄仁勋:我眼中的GPU,和别人有很大差别

本文来自微信公众号:极客公园 (ID:geekpark),作者:宛辰,编辑:靖宇,题图来自:视觉中国

文章摘要
英伟达创始人、CEO黄仁勋在GTC 2024演讲中分享了英伟达的新产品和战略,并就中国市场、AI Foundry、Blackwell芯片的定价等问题进行了回答。

• 🚀 黄仁勋表示英伟达不仅是GPU芯片制造商,更专注于打造数据中心,为客户提供全套硬件、软件和服务。

• 💡 黄仁勋介绍了英伟达的AI Foundry计划,旨在构建软件,为用户提供各种AI相关的微服务。

• 💰 黄仁勋没有透露Blackwell芯片的具体定价,但强调了英伟达的商业模式是基于为客户提供整体数据中心解决方案。

气氛突然严肃了起来。


“有媒体认为你要么是 AI 时代的达芬奇,要么是 AI 时代的奥本海默,你怎么看?”


“奥本海默是造炸弹的,我们(英伟达)不干这个。”面对这个多少有点戏谑的问题,英伟达创始人、CEO 黄仁勋迟疑片刻,非常认真地回答了出来。


当地时间 3 月 19 日,以堪比流行巨星的热度完成了 GTC 2024 的开场演讲后第二天,黄仁勋接受了全球媒体采访。


黄仁勋给在场媒体重新解释了一遍“演唱会”上的要点|图片来源:极客公园


无论是宏大问题例如“AGI 何时到来”“英伟达如何看待中国市场”,或者是具体到新推出的 NIM 软件如何应用,这位全球市值第三公司的掌舵人,都能将问题分解并抽象成更容易理解的层次,用简单的比喻回答出来,虽然其中可能不乏“太极”的嫌疑,但至少令人难以怀疑回答者的诚恳。


两万亿的市值新高度下,老黄认为,GPU 芯片市场,不是英伟达的追求——“英伟达不造芯片,英伟达造数据中心”,为此,英伟达搭建了所有:硬件、软件、服务,让客户决定怎么购买自己的数据中心。


GTC 2024 Keynote 演讲中,老黄展示的 5 个要点:新工业革命(加速计算和生成式 AI)下,英伟达的新基建包括:Blackwell 平台;NIMS;NEMO 和 NVIDIA AI Foundry;Omniverse 和 ISAAC 机器人。|图片来源:Nvidia


一、GTC新品的中国市场计划


问:新的网络和技术计划向中国销售多少?有任何中国特定SKU的信息可以披露吗?是否为该市场做出了任何考虑或改变?


黄仁勋:我还没有向你宣布这一点,你很贪婪(哈哈),这就是全部答案。现在对于中国,我们有 L20 和 H20 芯片符合出口要求,我们正在尽最大努力为中国市场组织调配资源。


二、AI Foundry的目标
  

问:你在主题演讲里提到AI Foudry 正在许多企业中起作用,这个计划的总体战略和长期目标是什么?


黄仁勋:AI Foundry 的目标是构建软件。这不是指软件作为工具,任何人都有这样的软件。很久以前创建的两个最重要的软件,一个叫做 Office,它让软件变得 RTS(Real-Time Software,实时软件)


另一个非常重要的软件叫做 cuDNN(CUDA 深度神经网络库)。我们有 AI 所有这些不同之处。未来的库是一个微服务,因为未来的库不仅仅用数学来描述,还用 AI 来描述。未来,它们都将变成 NIMs(微服务)


这些 NIMs 是超级复杂的软件,你所要做的就是来到我们的网站。你可以在那里选择用户,或者下载它、在另一个云端运行它,或者下载在你的本地计算机上运行。当运行你的工作站、你的数据中心时,这项服务将使它们非常高效,所以这是一种在环境中使用的新方式。现在,当你作为一个企业运行这些库时,我们有一个软件许可(Liscence)的授权操作系统可用,你可以以 4500 美元/GPU/年的价格使用这些服务。


三、Blackwell定价


问:你之前说最新一代 AI 芯片 Blackwell 的定价在 3 万至 4 万美元,有更精确的信息吗?


黄仁勋:这很难说,我也只是试图让大家对我们产品的定价有一定感受,并不打算给出具体报价。


Blackwell 系统的定价非常不同,因为每个人要的配置不同。如果不仅使用 Blackwell,Blackwell 系统通常包括 NV-Link 在里面,所以不同系统的定价不同。像往常一样,定价范围通常视 TCO(总体拥有成本)而定。


英伟达不造芯片,英伟达造数据中心,为此我们搭建了所有任务,引入所有软件,调整它使数据中心系统尽可能运转良好。然后,疯狂的部分来了,我们将数据中心聚合成更小的部分,允许客户根据自己的特定需求对其进行修改,这包括网络、存储、控制平面、安全和管理模块,想办法把数据中心整合到客户的系统中,最终,客户决定如何购买它,所以跟过去销售芯片不同,Blackwell 的定价不是芯片的事,我们的商业模式也反映了这一点。


英伟达的机会不是 GPU 芯片,是数据中心,数据中心正在快速走向加速,这是每年 2500 亿美元的市场,并以每年 20% 至 25% 的速度增长,这主要是由于 AI 方面的需求。其中,英伟达会占据重要的份额,从 1 万亿美元升至 2 万亿美元,我认为是合理的。


黄仁勋:你说的 GPU,和我说的 GPU,脑海中想象的差距非常大|图片来源:极客公园


四、Sam Altman要扩张到芯片行业


问:Sam Altman 一直在与芯片业的人们谈论扩大AI芯片的规模。他和你谈过这个问题吗?


黄仁勋:我不知道他的意图。他认为生成式 AI 会变得很大,在这一点我很认同。


今天计算机产生像素的方式是从数据集中检索数据,处理数据,然后传递数据。在整个过程中,人们认为需要消耗的能源非常少,但这恰恰相反。原因是每次你触摸手机、每个提示,都需要与数据集赛跑并返回。从数据集中检索数据,使用 CPU 收集所有必要的部分,然后以一种从推荐系统的角度看有意义的方式组合信息,然后将结果信息发送回用户,这个过程需要大量的计算。


这就像每次问我一个问题,我都需要跑回办公室检索信息,这需要大量的精力。未来,越来越多的计算将是生成的,而不是基于检索的。当然,这个生成过程必须是智能的、与上下文相关的。我相信,未来人们电脑上的几乎每一个像素、每一次交互都将通过生成过程产生,我相信 Sam 也这么认为。希望通过 Blackwell 新一代架构能为生成式 AI 这个领域做出重大贡献。现在大多数体验还是基于检索的,但是如果未来每个人的人机交互都是生成式的体验,我会很惊讶。这是一个巨大的机遇。


五、个人大模型会是什么样子?


问:我完全同意你对未来软件的定义,我们的生活也在通过 LLM 发生很大变化。在基础模型方面,你认为未来会是什么样的?


黄仁勋:核心是,我们如何拥有个人的大模型?有一些方式可以做到。开始,我们认为这个过程可能需要微调(fine tuning),在持续的使用过程中,持续微调。


但是,正如你所知,微调是相当耗时的。然后我们发现了提示词工程(prompt engineering),发现了上下文学习(context learning),发现了工作环境(working environment)等等。


我认为答案将是所有这些的组合。在未来,你可以通过只微调一层叫 Lora 的权重(weights),锁定其他部分不必微调,从而低成本地做微调,你可以做提示词共创、上下文学习、增加模型记忆,所有这些成就了你独特的大模型,可以在云端运行,也可以在你的本地电脑上运行。


六、对AI芯片初创公司的看法


问:昨天在你的主题演讲后,芯片公司 Groq 发推文说自家芯片跑得仍然更快,你怎么看 AI 芯片初创公司的评论?


黄仁勋:我还没了解那么多(哈哈),不评论了。


任何以 token 方式做生成的模型都需要其独特的方式,因为 Transformer 不是任何一个模型的名称。


这些模型总体基于 Transformer 技术,都利用了 Transformer 注意力机制,但模型与模型之间存在巨大差别。有的模型用了混合专家模型(Mixture of Experts),混合模型里有的是两个专家模型,有的是四个专家模型,这些模型等待消息,以及路由分发,里面的一切步骤都不同,模型中的每一个都需要特殊优化。


此时,如果计算单元被设计成只能以特定的方式、做特定的事情,它就是一个可配置的电脑,而不是可编程配置的计算机,就无法受益于软件创新的速度和潜力。


就像 CPU 的奇迹不可低估一样,这么多年,CPU 一直是 CPU 的原因,是它克服了这些年来设置在 PC 主板上的可配置硬件,软件工程师的才能可以通过 CPU 来实现。相反,如果你把它固定在芯片上,你就断了软件工程师能带给芯片的聪颖智慧。


这就是英伟达芯片能够在不同的 AI 模型架构(从 AlexNet 一直到 Transformer)下,都能表现出色的原因,英伟达找到了一种方法,从一种非常专业的计算形式中受益。芯片在这里被用来促进软件,而英伟达的工作是促进发明,促进像 ChatGPT 的发明。


七、机器人空间模拟如何利用语言模型?


问:你讲述了使用生成式 AI 和模拟/仿真(simulation)来大规模训练机器人,但是有很多事情我们不知道如何很好地模拟,特别是当涉及到结构性的环境,如何突破限制继续训练机器人?


黄仁勋:有多种方法可以做到这一点。首先,你可以在我们的语言模型上下文中构建你的问题或观点。


大型语言模型以不受约束和非结构化的方式运行,这同时也是它的潜力之一。它从文本中学到了很多东西,但可能不适合泛化。它们如何在空间泛化是一种“魔力”,机器人的 ChatGPT 时刻可能就在眼前。


为了克服这个问题,你可以指定上下文和问题,例如告诉它处在特定条件的厨房中。通过应用 ChatGPT 的魔力,机器人可以有效地泛化并生成对软件有意义的 token。一旦你的计算机感官识别了这些 token,机器人可以根据这些例子进行归纳。


八、预判下一个ChatGPT时刻
 

问:你提到一些行业先迎来 ChatGPT 时刻。哪些行业会率先变化?可以分享你看到的突破,尤其是让你激动人心的案例吗?


黄仁勋:有很多例子。我对 Sora 非常兴奋,去年在 wayve 上看到了同样的能力,这是关于文生视频的例子。


为了生成一个这样的视频,模型必须对物理规律有感知,比如把物体放在桌子上,而不是中间;走路的人是在地面上。不能违背物理规律。


另一个例子是我们用 Earth-2 来预测极端天气影响。这是一个关键的研究领域,因为极端天气事件会对当地社区造成毁灭性的影响。利用 Earth-2,可以在 3 公里尺度上预测极端天气事件的影响。这是对现有方法的重大改进,现有方法需要的超级计算机要大 2.5 万倍。


生成新药物和蛋白质是另一个非常令人印象深刻的潜在用例。这是通过像 Alphago 这样的强化学习循环来实现的,它允许在不消耗纯物质的情况下探索大分子空间,这有可能彻底改变药物发现。


这些是非常有影响力的东西,机器人技术也是如此。


在 3 月 18 日的 GTC 开场演讲中,老黄注视着最新的 Blackwell 架构产品|图片来源:极客公园


九、芯片出口管制如何影响英伟达


问:对芯片的出口管制,以及地缘政治,会对英伟达产生什么影响?


黄仁勋:有两件事我们必须马上去做。第一,了解所有政策,以确保其合规;第二,也要提高供应链韧性。


关于后者,我举个例子。当我们把 Blackwell 芯片配置成 DGX 处理器时,其中有 60 万个零件来自世界各地,很多来自中国。就像全球汽车供应链的复杂性一样,供应链的全球化很难被打破。


十、和台积电的关系
 

问:你能谈谈与台积电的关系吗?在过去的几年里,随着不断芯片封装的复杂性,台积电是如何帮助英伟达实现目标的?


黄仁勋:与台积电的合作是我们最紧密的合作之一,因为我们要做的事情非常难,而他们能做得非常好。


我们从台积电得到了计算单元,CPU、GPU 裸芯片,良率很好。存储器是来自美光、海力士、三星,并且这些组装必须在台湾完成。所以,供应链并非易事,需要公司之间的协调。这些大公司与我们一起合作,也逐渐意识到,更加密切的合作是非常必要的。


我们从各家公司获取部件,然后组装,第三家公司测试,第四家公司组成系统,当然这个大系统最后是为了建成一个超级计算机,再进行测试。最终,我们建立了数据中心。想象下,所有的加工制造就是为了形成一个巨大的数据中心。整个供应链从上到下复杂度非常高,因为我们不仅仅是组装,除了芯片本身是个奇迹外,我们做成了巨大而庞杂的系统。


所以,当人们问我对 GPU 是什么感受时,可能一部分觉得它有点像 Soc(集成芯片)而已,而我看到的是架子、线缆、交换机等等。这才是我心中 GPU 和软件的模型。台积电真的很重要。


十一、云业务的战略


问:英伟达正在向云业务转型,其他云厂商则在做自己的芯片。他们会影响你的定价策略吗?英伟达云业务的策略是什么?会向中国客户销售 DGX 云业务吗?


黄仁勋:英伟达与云服务提供商合作,将其硬件和软件放入他们的云中,这样做的目标是将客户带到他们的云中。


英伟达是一家计算平台公司,我们开发软件,我们有一批追随英伟达的开发者,因而,我们为使用英伟达 DGX 的云服务供应商(CSP)创造需求、带去客户。


十二、“当代达芬奇”,还是“奥本海默”?


问:你曾说 AGI 将在 5 年内到来,这个时间预测有发生变化吗?AGI 的加速到来会让你感到害怕吗?有人说你是当代达芬奇(多才多艺、做出如此贡献),也有人说你是当代的奥本海默,你怎么看?


黄仁勋:奥本海默是造炸弹的,我们(英伟达)不干这个。


先具体定义 AGI,这样我们才能知道什么程度才算到达 AGI、什么时候到达。如果 AGI 意味着在大量的测试集上,数学测试、阅读测试、逻辑测试、医学考试、法律考试、GMAT、SAT 等等,软件程序可以做到比大多数人类都更好,甚至比所有人都好,那么计算机在 5 年内可以实现 AGI


本文来自微信公众号:极客公园 (ID:geekpark),作者:宛辰,编辑:靖宇

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定