10-17

OpenAI与Broadcom开发AI芯片,成本节省20%-30%,优于Nvidia

新闻图片

OpenAI与芯片制造商博通(Broadcom)达成里程碑式合作,计划在未来四年内部署10吉瓦(GW)定制AI加速芯片及系统,首批设备将于2026年下半年投入使用,2029年底全面完成部署。这项价值数十亿美元的合作将显著提升OpenAI的算力基础,并推动其自研芯片战略落地。

5 来源
合作框架与技术方案

根据协议,OpenAI将主导AI加速器及系统架构设计,博通则负责开发部署并提供以太网、PCIe及光连接解决方案。双方将共同打造基于以太网扩展的机架级AI基础设施,以满足全球激增的AI算力需求。[1][2]

定制化芯片采用OpenAI自研神经网络优化设计,通过去除现成显卡中的冗余模块实现能效突破。OpenAI总裁Greg Brockman解释:“我们利用模型自主优化芯片架构,显著缩减了核心面积”。这种量身定制的方案相比通用GPU可节省约20-30%的功耗和物理空间,释放的资源将直接服务于OpenAI的特定工作负载。[3]

部署规模与时间表

此次合作将分阶段实现10吉瓦算力部署,相当于数百万家庭的能源消耗总量。具体规划如下:

  • 2026年下半年:首批搭载定制芯片的数据中心机架投入运行
  • 2029年底前:完成全部10吉瓦系统部署[1][2]

博通CEO Hock Tan强调,该合作“为通用人工智能(AGI)发展铺平道路”。同时,这标志着博通在定制AI芯片市场的重大突破——此前其百亿级订单客户被证实并非OpenAI,但双方仍持续推进自研芯片合作。[3]

算力生态与资金挑战

此次合作是OpenAI算力版图的重要组成:

  • 英伟达(NVIDIA):100亿美元投资计划,部署10吉瓦基础设施
  • 超微(AMD):6吉瓦合作项目,注资规模或达数千亿美元并可能换取10%股权
  • 甲骨文(Oracle):4.5吉瓦数据中心协议,纳入“星门计划”(Stargate)[1][2]

然而,OpenAI的算力扩张面临巨额资金缺口。CEO Sam Altman提出“八年建成250吉瓦计算能力”的目标(相当于全美发电量的20%),但公司当前年收入仅130亿美元,十万亿美元级的资金需求仍需多方协作填补。[1]

本内容由AI生成