2025-6-29

摩尔线程支持腾讯混元-A13B模型,完成GPU深度适配

新闻图片

摩尔线程于2025年6月27日宣布,率先完成对腾讯开源的混元-A13B大语言模型在全功能GPU上的深度适配与高效支持。该突破性进展标志着国产GPU在支持复杂AI模型领域取得重要技术突破,为行业提供了新的高性能算力解决方案。

4 来源
技术突破与适配成果

摩尔线程在腾讯开源混元-A13B模型的当天即完成深度适配,彰显其技术响应速度。作为业界首个13B级别的开源混合专家(MoE)架构模型,混元-A13B拥有800亿总参数和130亿激活参数。摩尔线程的适配实现了该模型在国产GPU平台上的高效推理,为AI训练与部署提供了新选择。[1][2]

此次适配不仅验证了国产GPU对前沿大模型的支持能力,更突破了传统GPU在MoE架构优化上的技术瓶颈。通过底层架构优化,摩尔线程实现了计算资源的高效调度,显著提升模型推理效率。[3][4]

模型核心特性

混元-A13B采用混合专家架构,将不同子任务分配给特定专家模块处理,显著提升模型效率。其核心技术亮点包括:

  • 参数规模:800亿总参数位列同级开源模型前列
  • 动态计算优化:仅激活130亿参数参与计算,降低能耗
  • 多场景适用性:支持文本生成、代码补全等复杂AI任务[1][2]

该模型在保持高精度的同时,通过智能路由机制动态选择专家模块,实现计算资源的精准分配。这种设计在保证效果的同时大幅降低推理成本,为工业级应用提供可能。[3]

产业影响与未来布局

此次合作将推动国产AI软硬件协同发展。腾讯的开源策略降低了企业使用先进AI模型的门槛,而摩尔线程的快速适配验证了国产GPU的兼容能力。双方技术整合为中小企业提供了可替代国际巨头的AI解决方案,减少对海外算力产品的依赖。[1][2]

业界分析指出,该突破将加速国产GPU在AI服务器、数据中心等场景的应用渗透。随着混元-A13B在制造、金融等垂直领域落地,国产AI产业链将形成从芯片、框架到应用的全栈竞争力。[3][4]

本内容由AI生成