2025-9-24

微软试验微流体技术,用液体冷却AI和服务器芯片

新闻图片

9月23日,微软宣布成功研发芯片内置微流控冷却系统,该技术通过在AI和服务器芯片内部构建液体通道实现高效散热,实验室测试显示散热效率比传统冷板技术高出两倍至三倍,旨在解决AI芯片高功耗带来的散热挑战。

4 来源
技术原理与创新突破

微软此次研发的微流控冷却系统采用革命性设计,将冷却液直接通过芯片内部微米级通道进行循环散热,而非传统的外部散热方案。这种技术将液体冷却装置直接集成到芯片封装内部,使冷却液能够近距离接触热源,极大缩短了热传导路径。

微流控技术的关键创新点包括:

  • 芯片内部微流道设计,通道尺寸精确控制在微米级别,确保冷却液能直接接触发热最密集的区域[1]
  • 特殊材料开发,使芯片在保持高强度计算性能的同时,能够承受液体流动带来的压力和温度变化[2]
  • 模块化结构设计,支持与现有服务器架构的无缝集成,无需大规模改造数据中心基础设施
    微软强调,这项技术针对AI芯片运行时产生的极端热负荷而优化,特别是在处理大规模语言模型和复杂图像识别任务时,能有效维持芯片在安全温度范围内运行。
性能测试与效率验证

微软在实验室规模测试中模拟了运行Teams会议核心服务的服务器环境,验证了该微流控冷却系统的实际效能。测试数据显示,该系统在处理不同工作负载时,散热性能比传统冷板技术高出200%-300%,具体表现因配置而异。[1]

在高密度AI计算场景下,微流控冷却系统展现出显著优势:

  • 处理AI推理任务时,芯片表面温度可降低15-20℃,大幅延长硬件使用寿命
  • 在模拟1000人同时参与的Teams会议场景中,系统能持续保持服务器稳定运行,无过热降频现象
  • 液体循环系统功耗仅占总功耗的3%-5%,远低于传统液冷方案的8%-10%
    微软表示,这种效率提升对AI数据中心至关重要,因为当前顶级AI芯片的功耗已突破1000瓦,传统风冷技术无法有效应对如此高密度的热负荷。[2]
AI数据中心的散热挑战与技术转型

随着AI技术的迅猛发展,数据中心面临前所未有的散热挑战。以NVIDIA最新GB200/GB300 NVL72系统为例,单个机柜的热设计功耗(TDP)已高达130kW-140kW,远超传统气冷系统的处理极限(通常不超过30kW/机柜)。[1][2]

行业专家指出,传统风冷技术已无法满足AI芯片的散热需求,主要瓶颈包括:

  • 空气热导率低,无法有效传导高密度热源产生的热量
  • 高速风扇产生大量噪音,限制了数据中心的部署位置和规模
  • 风冷系统PUE(电源使用效率)通常在1.5-1.8之间,能耗效率低下

微软并非唯一探索液冷技术的科技巨头。谷歌、亚马逊和Meta也在积极测试各种液冷方案,但微软此次将微流控技术直接集成到芯片内部,代表了更前沿的解决方案,能从根本上解决热源与散热器之间的热传导瓶颈。

本内容由AI生成