2025-10-1

三星与SK海力士为OpenAI星际之门项目提供内存芯片

新闻图片

全球存储芯片巨头三星电子和SK海力士已确认将为OpenAI旗下斥资5000亿美元的'星际之门'(Stargate)人工智能基础设施项目供应关键内存芯片,此举标志着AI算力竞赛已进入关键基础设施建设阶段。

5 来源
星际之门项目规模与战略地位

OpenAI首席执行官萨姆·奥尔特曼近期宣布,公司计划在2025年底之前部署超过100万块GPU,实现’百倍扩容’的技术构想。作为该计划的核心载体,‘星际之门’(Stargate)是一家为支持OpenAI基础设施建设而新成立的公司,计划在未来四年内投入5000亿美元(约合3.59万亿元人民币),在美国打造新一代人工智能计算设施。[1]

项目首个数据中心选址位于得克萨斯州的阿比林市,占地1000英亩,将成为全球规模最大的AI训练中心,计划部署多达40万块GPU,可能配备40万颗英伟达AI芯片。[1]

Stargate的初始投资者阵容强大,包括软银、OpenAI、甲骨文和MGX。其中,软银与OpenAI为主要合作方,软银负责资金支持,OpenAI负责运营管理,软银创始人孙正义将出任Stargate董事长。在技术合作方面,Arm、微软、英伟达、甲骨文和OpenAI共同成为该项目的首批核心合作伙伴。[1]

HBM内存芯片:AI算力的关键支撑

高带宽存储器(HBM)已成为AI芯片架构中的关键组件,直接关系到大模型训练和推理的效率。SK海力士已成功研发HBM4并实现量产,继续引领AI高性能存储技术的发展方向。[1]

全球HBM市场呈现’海外领跑、国内加速追赶’的双轨格局,由SK海力士、三星、美光三大巨头垄断95%的市场份额。[2]

为解决先进制程成本快速提升和’内存墙’等问题,Chiplet设计+异构先进封装已成为性能与成本平衡的最佳方案。台积电开发的CoWoS封装技术可以实现计算核心与HBM通过2.5D封装互连,英伟达A100、H100等AI芯片均采用该技术,分别配备40GB HBM2E和80GB的HBM3内存。[2]

具体到此次合作,三星和SK海力士将为Stargate项目提供最新型HBM内存芯片,以满足AI训练中心对高带宽、低延迟内存的严苛要求,这对于支撑百万级GPU并行计算架构至关重要。[3][4]

内存市场供需变化与价格趋势

AI热潮正引发存储芯片市场的结构性变化,内存巨头们已开始在由人工智能需求推动的短缺中进一步提高价格。[1]

根据TrendForce的报道,继三星和美光之后,SK海力士目前也正在根据市场情况与客户进行价格调整的谈判,这反映了AI数据中心建设对高性能内存的强劲需求。[1]

市场分析显示,随着OpenAI、微软等科技巨头加速部署AI基础设施,HBM需求呈现紧迫态势,迭代速度加快。[2]

值得注意的是,内存带宽已成为制约算力发挥的’卡口’,高性能AI芯片必须配备相应的高带宽存储器才能实现最佳性能。这一供需变化为三星和SK海力士带来了新的增长点,同时也将对AI算力成本产生深远影响。[2]

为应对这一市场变化,行业专家建议:

  • AI芯片制造商应尽早锁定HBM供应合约,确保未来项目顺利实施[2]
  • 企业客户应考虑多元化供应商策略,降低供应链风险[1]
  • 云服务提供商需重新评估AI计算成本模型,将内存成本作为重要变量[2]
行业影响与未来展望

此次合作标志着AI基础设施建设已从单纯购买GPU扩展到整个生态系统的深度整合,内存芯片供应商正从幕后走向AI竞赛的前台。[1][2]

随着Stargate项目推进,预计全球数据中心内存需求将出现结构性变化,HBM占比将持续提升,而传统DRAM在AI训练场景中的应用将逐渐减少。[3]

分析机构预测,到2026年,AI相关内存需求将占全球HBM总出货量的70%以上,这将推动存储芯片厂商进一步加大HBM研发投入。[3]

长期来看,AI算力竞赛不仅将重塑存储芯片市场格局,还可能催生新的技术标准和行业生态。随着中国等国家加速推进HBM自主研发,全球存储芯片产业有望形成更加多元化的竞争格局,为AI技术的持续创新提供更坚实的硬件基础。[3]

本内容由AI生成