2025-9-12

超微电脑批量出货英伟达Blackwell Ultra产品

新闻图片

超微电脑(Super Micro Computer)于2025年9月12日正式开始批量出货搭载英伟达最新Blackwell Ultra架构的AI服务器,标志着新一代AI算力基础设施正式进入市场应用阶段,将为全球科技巨头的AI扩张计划提供强大算力支持。

6 来源
新品出货概况

据市场消息,超微电脑已在2025年9月12日启动英伟达Blackwell Ultra架构AI服务器的批量出货,这一进展被业界视为AI算力市场的重要里程碑。[1] 超微电脑作为英伟达长期合作伙伴,此次出货主要面向全球四大科技巨头——谷歌、微软、Meta和亚马逊等AI基础设施建设的主要推动者。[2]

分析显示,Blackwell Ultra服务器的出货时机恰逢关键,因为这些科技巨头正计划在2024年基础上同比增长35%,将AI算力基础设施投资提升至超过3500亿美元,并预计2026年进一步增至4000亿美元以上。[2] 这一出货也缓解了市场对超微电脑此前下调业绩预期的担忧,当时市场普遍质疑该公司能否成功转向基于英伟达Blackwell系列芯片的新服务器产品线。[2]

Blackwell Ultra技术特点

Blackwell Ultra基于英伟达在GTC 2025大会上发布的先进架构,是继Blackwell B200之后的升级版本,专为满足大模型训练和推理的高算力需求而设计。[1] 以华硕最新推出的AI POD服务器系统为例,整合了Nvidia GB300 NVL72平台的系统配备了72个Blackwell Ultra GPU和36个Grace CPU,形成了强大的AI计算集群。[2]

主要技术突破包括:

  • GPU间双向通信带宽从900GB/s跃升至1800GB/s,大幅提升并行计算效率[3]
  • 单个标准机柜可装载上限72颗Blackwell GPU,通过NVLink5交换技术实现576颗GPU互联[3]
  • 采用先进的液冷架构设计,应对高强度AI计算产生的巨大热负荷[2]
  • 搭配HBM3E内存技术,提供超高的内存带宽和数据处理能力[1]
产业链带动效应

Blackwell Ultra的批量出货不仅代表AI芯片的重大进步,还对整个半导体产业链产生广泛带动效应。随着HBM(高带宽内存)技术的应用扩展,2023年HBM市场规模仅为40亿美元,但预计2024年将激增至150亿美元,到2026年进一步增长至350亿美元。[1]

Blackwell Ultra服务器对光模块和网络设备也提出了更高要求:

  • 在由256颗GPU构建的集群配置中,需要高达2304个800G光模块,平均每颗芯片配备比例达1:9[2]
  • 采用新一代以太网交换机和液冷技术,解决了大规模GPU互联带来的功耗和散热挑战[2]
  • 单台机架中配置36颗Grace CPU和72颗Blackwell GPU,对电源管理和系统集成提出更高要求[2]
    这些需求为半导体产业链创造了新的增长点,也为国产替代提供了市场机遇。
市场前景与竞争格局

随着Blackwell Ultra服务器的批量出货,英伟达在AI芯片市场的领先地位进一步巩固。英伟达已在GTC 2025上展示下一代Vera Rubin架构的细节,表明其在芯片架构上的持续创新和算力竞争已进入白热化阶段。[1]

市场对Blackwell Ultra的需求预计将呈现爆发式增长:

  • 超微电脑股价在宣布出货消息前曾因业绩预期下调而大幅波动,凸显市场对Blackwell产品线的重视[2]
  • 中国多家企业正积极布局Blackwell相关基础设施,如新疆地区已规划约11.5万颗英伟达AI芯片的数据中心项目[3]
  • 全球AI算力竞赛加速,对高性能AI服务器的需求持续攀升,Blackwell Ultra的出货将直接推动这一进程[1]
    业界普遍认为,Blackwell Ultra的大规模部署将为AI大模型的进一步发展提供关键算力基础,加速AI技术在各行业的深度应用。
本内容由AI生成