AI芯片出口争论凸显中国必须走通国产算力之路。科大讯飞基于全国产算力训练大模型的实践表明,只有实现从训练到商业的全栈国产化闭环,才能确保技术自主与商业可持续。 ## 1. 从“能用”到“能训”:国产化的真正内涵 - 文章指出,让模型在国产芯片上“跑起来”(推理)只是解决了部署问题,而“训练出模型”才是确保技术体系自主可控的关键。 - 训练国产化意味着模型从数据、算法到参数更新的全链路都在国产软硬件中完成,这是模型未来能否持续升级的核心。 ## 2. 技术闭环:从训练能力到成本优势 - 确立国产化训练能力后,企业可利用真实场景数据持续优化模型,实现用更小模型逼近大模型效果,从而显著降低推理成本。 - 科大讯飞发布的30B模型星火X2-flash在复杂任务上效果接近万亿参数模型,但词元消耗不到三分之一,展现了技术闭环带来的商业可行性。 ## 3. 商业验证:全栈国产化的市场竞争力 - 2025年,科大讯飞大模型相关项目中标金额达23.16亿元,超过第二名至第六名总和,高合规要求的头部企业看重其安全、稳定、持续迭代的底座能力。 - 智慧教育业务营收89.67亿元,海量场景数据反哺模型训练,形成了“业务产生数据、数据反哺训练、训练提升业务”的高效循环。 ## 4. 战略信号:自主可控成为必然选择 - 美国关于AI芯片出口的争论细节各有道理,但对中国的结论只有一个:国产算力这条路必须自己走通。 - 国家发改委叫停外资收购智能体公司Manus,明确信号表明核心数据和关键AI技术必须留存在本土监管框架内,这与市场要求全栈国产化的诉求一致。
能用国芯训出大模型才有未来
特别策划2026-04-30 16:45

能用国芯训出大模型才有未来

AI芯片该不该出口中国,硅谷争论未休。


英伟达话事人黄仁勋认为应该卖,理由是彻底断供只会把对手逼到自立门户,最终练出一套与美国相匹敌的技术栈。


有观点针锋相对:即便出口不那么先进的次高端芯片,也可能让“军民两用管制品”被用于美国不想看到的用途。


双方分歧在于,美国到底是该继续供给芯片来锁住中国的技术生态,还是该限制供给来压低中国能力的上限。


争论的细节各有道理,但对太平洋这一侧来说,结论只有一个:国产算力这条路,必须自己走通


过去一年,国产大模型适配国产算力的消息越来越多。很多人会自然理解成,只要模型能在国产芯片上跑起来,大模型国产化就完成了。


但能跑起来,只解决了一半的问题。


让模型在国产芯片上跑起来,与在国产芯片上训练出模型,完全不是一回事。推理,是拿训好的模型来用,解决当下能否调用;训练,是把模型本身教出来,解决模型未来能否在国产技术体系里继续升级。


率先跑通训练的模型厂商,已开始在财务报表上,印证商业逻辑的可行性。


4月28日,科大讯飞发布2025年度财报。旗下通用大模型讯飞星火,系中国主流大模型中,唯一基于全国产算力训练而来。营收271.05亿元,同比增长16.12%;归母净利润8.39亿元,同比增长49.85%;经营活动现金流净额32.08亿元,同比增长28.57%,创历史新高。


这组数字背后,是一个从训练到商业的闭环。

 

从推理可用到训练可进化


眼下不少高性价比大模型风头正劲,但惊艳表现多建立在成熟的海外算力生态上;一旦迁移至国产卡,大多数只做到了推理平移——把训练好的模型部署到国产芯片上,让它能跑、能被调用、能服务用户。


以近期引发关注的DeepSeek V4为例,尽管有报道称其基于国产华为昇腾算力训练,但仅完成了推理适配,训练仍基于美国的英伟达芯片。


推理是部署的问题,而训练是底层工程的问题,这是两件事。


训练国产化,意味着模型从数据、算法、框架、算力集群到参数更新,全部在国产软硬件体系中完成,确保模型的技术迭代与核心数据都不假他人之手。


科大讯飞走的正是这条更艰难的路。年报披露,讯飞星火从硬件到软件,贯穿训练与推理,全栈自主可控。


这是一套训练体系的持续建设。


2025年,讯飞发布基于全国产算力训练的深度推理模型星火X1,模型参数比业界同类模型少一个数量级,却实现了业界一流的效果;同年11月发布X1.5,在全国产算力平台上打通了MoE(混合专家)模型的全链路训练瓶颈,多语言能力覆盖超130个语种,整体性能达到海外一线模型GPT-5(high)的95%以上;今年春节前发布的星火X2进一步升级,整体能力对标国际顶尖模型水平,并基于行业高质量数据和专家思维链的强化学习,推动教育、医疗等垂直领域的行业大模型持续领先。



为支撑这套体系,科大讯飞2025年研发投入53.64亿元,同比增长17.12%,占营收比重19.79%——要在全国产算力上训模型,背后是长期、高强度的工程投入。


同时,讯飞与华为正围绕昇腾950平台展开深度联合攻关。950系列在显存、带宽、算力上较910系列有大幅提升,讯飞计划于年内基于昇腾950发布对标业界最先进主流模型的旗舰大模型。


国产化训练,不是把模型简单搬到国产芯片上,芯片、框架、通信、训练效率,每一层都要一起磨——国产算力集群的训练效率开箱仅为同规模英伟达集群的30%,经过算子优化和分布式策略调整,才逐步提升至84%到93%。


政企和央国企客户要求高合规、高安全,这种软硬一体的协同,比单纯模型跑分更有现实说服力。


能在国产底座上跑起来,是适配能力;能在国产底座上继续进化,才是底座能力。全栈国产化训练,既能确保技术迭代不受制于人,又能在核心数据在不出域的前提下,反哺模型训练。


训出来、用起来、再练回去。技术闭环转起来,奠定了成本优势和商业结果的根基。

 

技术闭环如何变成成本优势


确立了训练能力,那这一套闭环在实战中产生了什么价值?


能训,就能用真实场景的数据持续优化模型;能优化,就能用更小的模型逼近更大模型的效果;模型更小,单次推理成本更低,消耗的资源更少。


简言之,在算力受限的条件下,更具商业可行性。这套逻辑在智能体时代尤其关键。


大模型应用正在从简单问答,走向智能体。模型要拆任务、调工具、执行流程、反复验证结果,一次任务背后可能包含多轮推理和大量词元消耗。


企业客户真正要算的,不只是模型有多聪明,更是完成复杂任务到底要消耗多少词元、花多少钱。


变化已经发生。年初以来,“龙虾”(OpenClaw)等一批通用智能体应用爆火,推动词元调用量急剧攀升。截至2026年3月底,依托星辰MaaS底座及星火大模型,讯飞开放平台第三方开发者大模型日均词元调用量同比增长4241%。大模型正在从演示场景进入真实、高频的使用场景。



谁能把任务成本降下来,谁就更容易做大规模部署。


单纯堆大参数并非智能体场景下的最优解。万亿级参数模型在部分能力上有优势,但每个任务都要消耗大量词元,企业一旦规模化部署,成本很快就扛不住。


科大讯飞没有跟着卷参数,它用技术闭环支撑中尺寸模型,更强调性价比。


4月29日发布的30B中等尺寸模型星火X2-flash,搭配为复杂任务设计的智能体框架AstronClaw,在深度研究报告、工具管理与调用、系统控制与执行等复杂智能体任务上,效果已接近万亿级参数模型,但词元消耗不到三分之一。


为什么中尺寸模型,能逼近大参数模型的效果?


因为讯飞的训练体系搭在自主可控的算力上,开放平台上数千倍增长的真实调用数据——哪一步卡住了、哪类任务词元偏高、哪个工具调用失败——可不受外部合规限制,无缝进入下一轮训练,用于模型的定向压缩和优化。


只做推理平移,训练仍依赖外部算力,那国产生态里产生的使用数据,就无法直接进入训练循环,模型的优化就不在自己手里。


这套闭环的转速,取决于数据来源的广度。


2025年,讯飞开放平台已开放920项AI能力与解决方案,AI开发者规模突破1000万,大模型开发者达到229万,年度增速124%。千万开发者在真实场景中持续工作。平台越大,数据越多,训练越精准,模型越高效,成本越低。


30B模型本身,就是这个训练循环的阶段性产出。AI平台及授权服务收入12.52亿元,其中大模型API及MaaS平台服务收入3.85亿元,同比增长263%——收入增长的背后,有更多开发者选择了这一能持续降本的底座。


用真实场景数据反哺训练,用训练能力压缩成本,再用更低的成本获取更多调用和数据。能训,才能持续把成本降下来。

 

技术跑通,商业跟着来


技术闭环能不能变成商业结果?


当前多数模型厂商仍在大幅亏损,行业面临商业化变现的共同难题,但科大讯飞的答案不太一样。


大模型相关项目中标金额23.16亿元,超过第二名至第六名的总和,中标数量和金额再获双第一。


国家能源集团、国家电投、中国国航、工商银行、中国人保、奇瑞汽车——高合规要求的头部企业,看重安全、稳定、持续迭代的底座能力,而非单单一个模型。在信创采购的合规要求下,全国产化训练本身就是更高级别的安全保障。


这些项目落地后,行业场景产生的数据也在反哺模型训练。


以教育为例,智慧教育业务营收89.67亿元,同比增长24.04%,星火智能批阅机日均批改作业超360万份海量的真实教育场景数据,直接进入训练体系,推动模型在垂直领域持续优化。



业务产生数据、数据反哺训练、训练提升业务,这种高效循环,纯推理平移路线很难复制。


闭环不止在国内市场成立,出海业务同样受益于底座能力。


2025年9月,讯飞基于全国产算力,为东盟地区专门训练了覆盖十种语言的星火多语言大模型底座,2025年海外营收同比增长275%。


若只追求在国产芯片上“跑得起来”,科大讯飞拿不到这样的成绩。数字背后的共同点,在于客户在一个当下可用的模型之外,更看重能持续进化的底座。


一套国产技术体系不仅能满足自身需求,还能为其他国家训练属于它们自己的模型。对国产大模型而言,自主可控之外,更具备了向外输出能力的基础。讯飞与华为昇腾在海外主权大模型(为各国用本地数据、本地部署训练的专属大模型)上的深度合作,正是沿着这条路径展开。


技术闭环正在变成商业闭环。

 

尾声


国产化训练并不容易,但要让模型的长期发展与迭代下去,这条路绕不开。


国产大模型的第一个阶段,是让模型在国产算力上跑起来。下一阶段,则是让模型在国产算力体系里能持续训练、持续升级、持续进入行业。前者,解决当下能不能用。后者,解决未来能不能进化。


硅谷还在争论AI芯片该不该卖给中国,而中国已经用行动表明了立场:


几天前,国家发改委做出决定,禁止外资收购智能体公司Manus,要求当事人撤销收购交易。一家由中国团队、中国数据、中国市场训练出来的AI应用,试图迁册新加坡,再卖给太平洋另一侧的科技巨头,被监管层直接叫停。


信号足够明确:核心数据和有潜力的关键AI技术,不应建立在竞争对手的底座上,必须留存在本土监管框架内。


这与政企市场要求大模型全栈国产化的核心诉求如出一辙。


美国在考虑要不要继续供给,中国已经在要求自主可控。无论从哪边的逻辑出发,留给国产大模型的答案都一样:国产算力这条路,得自己走通。


国产大模型未来能否在国产的技术体系里训练、升级、承担关键业务?只有解决了这个问题,这条路才算走通了。


科大讯飞2025年财报释放的信号正在于此:它做了模型,但不只是在做模型。讯飞把底座训练、行业模型、开放平台、智能体应用和商业反馈,放进了同一个国产化闭环。


这条路更重、更慢,更难被单纯的推理平移路线替代,也更值得踏实走下去。


本内容由作者授权发布,观点仅代表作者本人,不代表虎嗅立场。
如对本稿件有异议或投诉,请联系 tougao@huxiu.com。
正在改变与想要改变世界的人,都在 虎嗅APP