3-9

英伟达Vera Rubin架构或用三星、海力士HMB4内存

新闻图片

NVIDIA已确认其下一代Vera Rubin人工智能芯片架构将采用SK海力士和三星供应的HBM4高带宽内存,其中海力士占据约70%供应份额,三星占约30%,美光则被排除在外。受限于量产良率和技术瓶颈,NVIDIA已将VR200 NVL72系统总显存带宽目标从原计划的22TB/s下调至约20TB/s,对应HBM4每针速率约为10Gbps。

5 来源
HBM4供应格局明确,海力士与三星分食市场

根据SemiAnalysis最新报告,在NVIDIA Vera Rubin平台的HBM4供应中,SK海力士预计将占据约70%的市场份额,三星则获得剩余约30%的份额[1][2]。这一决策标志着美光(Micron)基本退出了该平台的HBM4供应阵容,尽管美光并未完全离场——该公司已明确转向为Vera CPU系列提供LPDDR5X内存,单颗CPU最高可配置至1.5TB容量,以此在其他内存细分领域弥补在HBM4业务上的损失[1][3]

SK海力士与三星之间的份额分布反映了当前HBM行业市场格局的重大变化。三星作为HBM市场的重要参与者,通过提升自身产品实力,成功斩获了英伟达这一关键客户的供货权,进一步巩固了其在高端内存领域的竞争地位[4]

性能指标面临调整,制造工艺成关键瓶颈

NVIDIA对Vera Rubin系统内存性能的期望经历了多次调整。原计划中,系统的总显存带宽目标为22TB/s,但随后在2025年9月将目标提升至20.5TB/s[1]。然而,受限于SK海力士与三星在量产阶段的技术瓶颈和良率限制,首批出货系统预计只能实现约20TB/s的带宽,对应HBM4每针速率约为10Gbps[2][3]

这一下调幅度虽然不大,但反映了NVIDIA与主要供应商在量产阶段面临的现实困境。尽管如此,20TB/s的带宽水平仍能满足下一代人工智能工作负载的需求。单颗Rubin GPU配备288GB HBM4内存,单颗GPU的内存带宽即可达到22TB/s,而整个NVL72机架的内存聚合带宽超过20TB,这一配置充分体现了英伟达在内存子系统领域的技术领先优势[1]

三星HBM4实现量产突破,多层方案梯次推进

三星在HBM4领域取得了重要进展。该公司透露其HBM4内存是首批实现商业出货的产品之一,基于第六代1c DRAM工艺与4nm逻辑裸片,全部由内部自主供应[1]

在技术规格方面,三星HBM4拥有业内最快的引脚速率:

  • 标准引脚速率达11.7Gbps,较前代产品的8Gbps提升46%[1]

  • 超频后已达13Gbps,满足了英伟达的关键认证要求[1]

  • 目前出货产品聚焦于12层方案,单颗芯片容量为36GB;16层HBM4内存也在开发中,届时单模组容量将达48GB[1]

三星计划最早于2026年下半年推出HBM4E产品,进一步提升性能指标。同时,三星透露其今年的HBM营收将较2025年增长两倍,显示出对HBM市场的强劲增长预期[1]

Vera Rubin系统出货在即,构建下一代AI算力基座

英伟达Vera Rubin人工智能系统计划于2026年夏末正式启动出货,采用VR200 NVL72机架级解决方案形态交付,该系统旨在为下一代人工智能模型提供强大算力支持[1]。根据最新信息,英伟达在2026年CES展会期间正式确认,VR200 NVL72系统的内存带宽已成功突破22TB/s的实验室目标,较2025年3月的早期目标实现了近70%的显著增长[1]

在系统架构方面,Rubin Ultra NVL576机架(代号"Kyber")由144个GPU封装组成,总共576个计算芯片,可提供15 ExaFLOPS的FP4运算能力,并配备2,304个HBM内存堆栈[2]。这一配置使得Vera Rubin系统成为目前最强大的AI推理和训练平台之一,预计将在大规模语言模型、视觉识别、科学计算等多个领域发挥关键作用。

本内容由AI生成