DeepSeek大幅降低大模型API价格,推动AI普惠化,同时通过国产芯片适配和规模效应重构行业定价体系,为商业化探索新路径。 ## 1. DeepSeek两连降价颠覆行业定价 - 4月25日DeepSeek-V4-Pro输入价格降至0.25元/百万tokens,26日再降至0.025元/百万tokens,缓存命中场景成本下降90%。 - 处理20万字《挪威的森林》成本不足1分钱,长文本等高成本场景被打入价格谷底。 ## 2. 降价策略背后的商业逻辑 - 大厂通过云服务生态盈利,而智谱等中间层因算力瓶颈连续涨价83%,面临客户筛选压力。 - DeepSeek通过降价吸引开发者和企业,重构行业定价预期,类似小米对手机市场的影响。 - 估值200亿美元背景下,需通过市场表现证明价值,可能"赔本赚吆喝"换取规模效应。 ## 3. 国产芯片适配带来成本优势 - DeepSeek适配华为昇腾生态,昇腾950PR集群性能达英伟达NVL72的1.7倍,硬件成本仅为25%。 - 100卡集群方案比英伟达H20节省60%-70%成本,带动国产芯片厂商股价单日最高涨9.54%。 - 推理侧和缓存场景优先突破,通过工程优化实现性价比优势,推动国产算力生态商业化。 ## 4. 长期商业化路径探索 - API低价是入口而非终点,目标成为开发者"默认底座",通过生态掌控实现企业级服务变现。 - 私有化部署是核心方向,金融/政务等领域更关注数据安全,愿为定制化解决方案付费。 - 梁文锋强调"普惠AI"理念,认为只有扩大应用市场才能加速技术迭代飞轮。
20万字不到1分钱,梁文锋把token价格打骨折了
2026-04-28 13:17

20万字不到1分钱,梁文锋把token价格打骨折了

本文来自微信公众号:字母AI,作者:苗正,题图来自:AI生成


梁文锋又出手了,而且还是二连降价。


4月25日,DeepSeek-V4-Pro开启限时2.5折优惠,输入价格(缓存命中)降至0.25元/百万tokens。


业内还没反应过来呢,结果4月26日晚间,DeepSeek就再次降价。


全系API输入缓存命中价格直接降至首发价的1/10。


叠加限时折扣后,V4-Pro的缓存输入低至0.025元/百万tokens, V4-Flash降至0.02元/百万tokens,创下全球大模型价格新低。


这是个什么概念呢?


上海译文出版的《挪威的森林》,全书约20万字。将整本书命中缓存后喂给DeepSeek-V4-Pro,那么其总成本不到1分钱。


DeepSeek这次降的,不只是token的单价。它是把“长文本、长代码、长知识库”这些原本最烧钱的AI应用场景,全都打入了价格的谷底。


摸着DeepSeek过河


DeepSeek两天两降,这不是简单的价格战。


先用限时折扣测试市场承受力和服务器负载,紧接着对缓存命中这一高频场景实施永久性降价。尤其是对于RAG知识库、智能客服、文档分析等缓存命中率超过60%的应用场景,成本可以直接下降90%以上。


DeepSeek研究员陈德里在社交媒体上确认,输入缓存降价是永久性的,并打上了“AGI for Everyone”的标签。


虽然说国内所有AI公司,几乎都是摸着DeepSeek过河,但DeepSeek这波降价之后,却并非所有人都担心。


尤其是大厂,他们压根不在乎DeepSeek降价。


这是因为,大厂卖API的本质,是卖背后的一整套服务。大模型API只是用来引流的,真正赚钱的是背后的计算、存储、数据库等云服务。


以阿里云为例,4月15日算力卡涨5%-34%、存储涨30%,但同时又愿意代理DeepSeek。关键点就在于,即便是客户使用DeepSeek,他们依然离不开阿里云的算力和存储。


阿里、腾讯、字节这些AI大厂,他们靠的是生态和平台赚钱。


真正难受的是智谱、MiniMax和月之暗面这样的中间层。


智谱AI在4个月里已经连续三次涨价。2月代码订阅套餐上调30%,3月旗舰API上调20%,4月8日再次上调10%,累计涨幅83%。调价后,GLM系列编程场景缓存命中Token单价已接近Claude Sonnet 4.6的水平。


智谱CEO张鹏的解释只有一句话:“瓶颈在算力,不在客户。”


在首份财报中,智谱公开了自己的商业逻辑公式:AGI商业价值=智能上限×Token消耗规模。


对于智谱这个上市公司来说,算力是稀缺资源。智谱的API年化收入(ARR)在过去12个月暴涨60倍至17亿元,Token调用量在价格上涨83%的背景下仍增长400%。


问题不是客户不愿意付钱,而是现有算力已经接近满载,继续低价只会让服务质量下降。与其通过价格战抢来大量低价值客户,不如提高价格筛选出高价值客户,把有限的算力用在刀刃上。


月之暗面和MiniMax的特点是量大便宜,当DeepSeek把API价格打到这么低,这两家或多或少都会有些难堪。


但月之暗面的K 2.6以及MiniMax即将发布的M3模型,性能都要高于DeepSeek-V4-Pro。他们在客户群体上可能会和DeepSeek有交集,但很难形成全面冲突。


促使DeepSeek降价的原因或许来自于融资,此前DeepSeek曾传出100亿美元估值,如今随着阿里、腾讯入局,估值进一步拉高至200亿美元。


估值拉高以后,融的金额也就多了,同时梁文锋也需要用市场、收入来证明DeepSeek达到估值所对应的高度。


所以即便DeepSeek是在赔本赚吆喝,也并不会让人感到非常意外。


对于上市公司来说,API就是核心收入,压低API价格就等于降低毛利。


更关键的是,如果承认“我们也要降价才能竞争”,就等于承认“我们没有技术护城河”。但如果坚持高价,又必须拿出足够有说服力的差异化价值。


DeepSeek降价的本质是他们找到了对应的客户。


梁文锋不需要DeepSeek有最强的性能。


无论是企业客户还是个人客户,模型的性能和使用体验之间有一道鸿沟。模型的性能跑分是它的上限,但是我们只需要我们能用到的部分。


只要有足够多的开发者和企业知道“还有这么便宜的选择”,整个行业的定价体系就会被重构。就像当年小米手机对智能手机市场的冲击一样,不是销量第一,但改变了所有人对“合理价格”的预期。


而且梁文锋也意识到一个问题,那就是AI就是基础设施,就和柴米油盐是一样的,那么价格战就变得在所难免,最终,AI也会像云计算一样走向“规模经济+薄利多销”。


在这个逻辑下,谁的成本结构更优、谁的技术迭代更快、谁能更早实现规模效应,谁就能活到最后。


DeepSeek给国产AI芯片替代讲故事


更关键的是,DeepSeek已经适配华为昇腾生态。


DeepSeek官方透露,目前Pro版本的服务吞吐受限于高端算力,预计下半年昇腾950超节点批量上市后,Pro的价格还将大幅下调。


所以这次价格下降,还只是预告而已。


昇腾950超节点通过集群方案弥补了单卡制程差距。


单颗昇腾910C芯片的BF16性能仅为英伟达Blackwell单芯片的约三分之一,但通过超节点集群方式,单个CloudMatrix 384集群的BF16总性能反而是NVL72的1.7倍,总内存容量为后者3.6倍,总内存带宽为后者2.1倍。


这还只是算力的方面,考虑硬件成本,事情就会更有意思。


华为昇腾950PR的定价约7万元人民币,英伟达同级别H200约合人民币25万元。根据英伟达AI在X上发布的信息,DeepSeek的确可以部署在英伟达Blackwell架构芯片上,不过这个成本更高,约为40万元人民币。


如果我们按FP8精度来算,昇腾950PR是7万元/PFLOPS,英伟达H200是6.31万元/PFLOPS。昇腾950PR毕竟是一张推理卡,如果我们按照推理专用的FP4精度来算,昇腾950PR是4.49万元/PFLOPS,英伟达B200是4.44万元/PFLOPS。


DeepSeek这次降价,砍在了缓存命中的价格上。


这个场景的特点是,模型不用每次重新理解全部上下文,大量重复输入可以复用,压力主要集中在推理吞吐、显存/内存带宽、调度和缓存管理上。


换句话说,它不是最依赖“单卡训练峰值”的场景,而是更适合通过国产芯片集群、工程优化和规模化调度来摊薄成本的场景。


那么我们如果把单卡的性价比优势放到大规模集群部署里,结果又会如何呢?


以100卡集群为例,国内常用的英伟达H20方案裸卡成本为1000万,13台服务器主机286万,加上机柜等,总价约为不到1500万元。同规模华为昇腾950PR的方案约为1000万出头。


昇腾950PR的单卡功耗(600W)比H20(350W)高,但单位算力功耗低65%,相同算力下对电力和制冷的需求大幅降低,基建投入显著减少。


并且,1张昇腾950PR的推理吞吐量约等于2.2-2.8张H20。这就导致实际上昇腾方案可能要比英伟达H20的方案节省60%到70%。


而大模型的API价格,很大程度上取决于硬件成本。那么DeepSeek打折,也很可能带动一波国产AI芯片销量。


连DeepSeek都开始大规模使用国产芯片,整个产业链就会被激活。云厂商会增加国产芯片的采购,芯片厂商会加大研发投入,开发者会适配国产生态。


华为昇腾、寒武纪、海光信息、摩尔线程、沐曦股份、昆仑芯、平头哥真武、天数智芯8家国产AI芯片品牌在DeepSeek-V4发布当天就完成了适配。


在DeepSeek-V4发布当天,AI算力芯片板块股价大涨。在A股,海光信息以8.2%的增幅领涨、寒武纪增幅为2.23%,在港股,天数智芯的涨幅达到9.54%。


这是一个正向循环。


当然,这并不意味着国产算力已经全面替代英伟达。训练侧仍然更依赖高端GPU、成熟软件栈和大规模集群经验DeepSeek真正走通的路径,可能不是“一夜之间替代英伟达”,而是先在推理侧、缓存场景、长文本应用里,把国产算力的性价比优势释放出来。


芯片只是第一层。


真正决定国产算力能不能吃下这波需求的,是软件生态。模型能不能稳定跑在昇腾上,推理框架能不能适配,算子有没有优化,开发者迁移成本有多高,才决定了这条路是“能演示”,还是“能商业化”。


DeepSeek的价值在于,它不是一家边缘模型厂商做适配,而是一个头部模型亲自把流量和需求带进国产算力生态。


梁文锋仍然需要给DeepSeek找商业模式


梁文锋真正的杀招不在于“便宜”,而在于“定价”。


梁文锋在用DeepSeek的影响力,让市场形成一个新的认知:“如果DeepSeek这个级别的模型已经能做到这个价,别家为什么还要卖这么贵?”


一旦这个锚点形成,其他厂商就陷入了两难。跟价,利润空间被压缩;不跟,就必须向客户解释“我贵在哪里”。


梁文锋曾在2024年表示:“我们只是按照自己的步调来做事,然后核算成本定价。我们的原则是不贴钱,也不赚取暴利。这个价格也是在成本之上稍微有点利润。我们降价一方面是因为我们在探索下一代模型的结构中,成本先降下来了,另一方面也觉得无论API,还是AI,都应该是普惠的、人人可以用得起的东西。”


他认为,只有让AI真正普惠,才能激发出足够大的应用市场。也只有应用市场足够大,技术迭代的飞轮才能真正转起来。


便宜可以打开市场,但便宜本身不是商业模式。


DeepSeek不能一辈子靠超低API价格活着。


API价格打到这个程度,短期内可以制造影响力,吸引客户,不过它很难成为一家长期公司的全部收入来源。


尤其是大模型推理本身仍然消耗算力、电力、带宽和运维,价格越低,调用量越大,对基础设施的压力也越大。


低价可以是入口,却不应该成为终点。


DeepSeek的目标,是成为中国AI开发者的“默认底座”。


只要足够多的应用和agent以DeepSeek作为基座模型开发,那么DeepSeek就掌握了入口。


API收入只是第一层,模型标准、开发者生态、企业部署、算力适配、云厂商合作,才是梁文锋想要的商业化空间。


DeepSeek更大的商业化机会,可能在企业私有化部署。


对于金融、政务、制造、能源这些行业来说,价格不是唯一问题,数据安全可控才是核心问题。


它们未必会长期使用公共API,但会愿意为一套能部署在自己机房、自己云环境里的模型系统付费。


梁文锋可以把开源模型作为入口,把企业级部署、调优、运维、安全、权限管理、知识库接入变成真正的收费服务。


如果DeepSeek长期只停留在模型层,它仍然会被卷入无休止的价格战。模型能力会被追赶,API价格会继续下降,开发者也会在不同模型之间切换。


真正能提高商业化上限的,是应用层产品,比如agent和CLI。


所以我始终认为,DeepSeek的低价API,应该不是梁文锋心里所想的商业化答案,更像是一个入口。


它先用价格打穿市场,再用开源建立生态,再用企业服务、私有化部署、云厂商合作和应用产品去承接价值。


这才能把“底座”的价值最大化。


本文来自微信公众号:字母AI,作者:苗正

AI原生产品日报频道: 前沿科技
本内容由作者授权发布,观点仅代表作者本人,不代表虎嗅立场。
如对本稿件有异议或投诉,请联系 tougao@huxiu.com。
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定