林俊旸离开的48小时:一条朋友圈、一个小模型、和一个万亿美金的假设
2026-03-05 17:36

林俊旸离开的48小时:一条朋友圈、一个小模型、和一个万亿美金的假设

本文来自微信公众号: APPSO ,作者:发现明日产品的,原文标题:《林俊旸离开的 48 小时:一条朋友圈、一个小模型、和一个万亿美金的假设》


「安排好的」?这是什么?


林俊旸离开前夕,Qwen团队刚刚发布了一件被全球开发者社区刷屏的东西。Qwen 3.5 Small系列,参数量从0.8B到9B,专为端侧设备设计,可以在普通笔记本电脑上运行。



不是一个更大的模型——而是一组更小的模型。要知道,过去三年里,AI行业最强大的共识是「越大越好」。OpenAI的Sam Altman四处筹措万亿美金建设算力基础设施,各家实验室军备竞赛般地烧钱烧卡,底层假设只有一个:模型越大,就越聪明。


这套逻辑被称为Scaling Law,它不仅仅是一条技术规律,更像一种信仰——整个行业的融资叙事、人才分配、硬件投资都建立在这个前提之上。


但Qwen 3.5 Small的发布,和林俊旸的离开,同时发生。一个技术信号和一个人事信号,交织出一个更复杂的故事:小模型到底在发生什么?它为什么重要?


当9B打赢120B


即便不是开发者,也可以跑分上一窥Qwen 3.5的战绩:


Qwen 3.5 Small系列中,9B参数的模型在多项基准测试中全面超越了OpenAI的gpt-oss-120B——一个参数量是它13倍的模型。


这些不是边缘指标上的微弱优势,而是在核心推理任务上的系统性领先。一个可以装进笔记本的模型,在数学、科学、视觉推理上全面击败了一个需要数据中心级硬件才能运行的对手。


当然了,摸着良心说,gpt-oss-120B不是OpenAI的旗舰产品,而是其开放权重的中端线。而且它采用MoE架构,标称120B参数,但每个token实际只激活约5.1B参数——所以参数量的对比,在工程层面并不像字面数字那么悬殊。


但这不影响趋势本身的成立。因为Qwen 3.5 Small并不是孤例。


同一时期,Nature报道了一个微型递归模型(TRM),在ARC-AGI逻辑测试中击败了多个顶级大语言模型。Google Research在2026年初发表论文,证明小模型在意图提取任务上的表现优于显著更大的模型。PNAS上的一项研究更直接——模型规模与说服力之间呈急剧递减收益,大到一定程度之后,更大几乎不带来更好。



《华尔街日报》早在2025年10月就已经敢说,「大模型拿走了所有的关注,但小模型才真正干活的那个。」


这些信号共同指向一个判断:以小博大不是偶发事件,而是大势所趋。


那么问题来了——小模型凭什么?


才不是大模型的替身文学


直觉上,人们容易把小模型理解为「大模型的平替」,同样的方法,只是规模小一些,性能差一点,胜在便宜。


但事实恰恰相反:今天的小模型之所以能以小博大,是因为它们在技术方法论上,走了一条和大模型完全不同的路。


第一,数据质量压倒数据规模。大模型的路线是「尽可能多地吞入互联网数据」,而小模型路线的代表——比如微软的Phi-4系列——走的是精筛路线:用高质量的合成数据加上严格筛选的公开数据集,让模型在更少的数据上学到更精确的能力。这背后的逻辑转变是根本性的:不是「喂得越多越聪明」,而是「吃得精才学得好」。



第二,原生多模态设计取代了适配器拼接。传统做法是先训练一个纯文本大模型,再通过适配器模块接入图像、视频、音频等能力。Qwen 3.5采用了完全不同的架构:将视觉token和文本token在同一个潜空间中联合训练,从底层就是多模态的。这意味着它是一个天生就同时理解文字和图像的模型。这种架构在小参数量下反而更有优势,因为不需要额外的适配器开销。



第三,量化技术带来的不只是压缩。4-bit量化常常被理解为「把模型压小4倍以节省存储」,但它真正的意义在于减少4倍的内存吞吐量。在端侧设备上,瓶颈往往不是存储空间,而是内存带宽,也就是数据从内存搬运到处理器的速度。量化技术让小模型在带宽受限的手机和笔记本上,获得了决定性的速度优势。


这些方法论上的突破已经开始转化为产品。3月第一周,苹果发布了M5全线芯片,每颗GPU核心内置Neural Accelerator,AI性能较M1提升最高8倍。与此同时,苹果研究院公开了Ferret-UI Lite——一个仅3B参数的端侧GUI代理,可以本地操控手机和桌面应用。加上Apple Intelligence约3B参数的端侧基础模型,苹果正在将「on-device AI」从概念推进到芯片、模型、交互三位一体的产品形态。



微软的Phi-4 multimodal也开始尝试商用上线Azure,3.8B参数,接受文本、音频和图像输入。开源社区的反馈更加直接——Reddit上的开发者实测后认为Qwen 3.5的4B版本是「甜点级」模型:跨任务稳定、无崩溃、远快于9B版本。


技术路线已经被验证,产品化拐点已经到来,天边泛起鱼肚白,曙光乍现。


而就在此时,林俊旸选择离开。


最会做小模型的公司,最没有动力让它成功


Qwen 3.5 Small在发布后获得了开发者社区的广泛认可,开源社区的评测结果甚至超出了官方发布时的宣传。


但是,他所在的公司是阿里巴巴,阿里巴巴的商业引擎是阿里云。


大模型和云计算之间存在天然的正向循环:模型越大,推理所需的算力越多,客户就越需要购买云计算服务。对阿里云来说,大模型是完美的商业叙事——它同时推高了客户的算力需求和对云平台的依赖。



而小模型的逻辑恰恰相反。小模型的核心价值在于可以在端侧设备上运行——手机、笔记本、边缘服务器。这意味着客户可以绕开云,在本地完成推理。对用户来说,这意味着更低的成本、更好的隐私和更低的延迟。但对阿里云来说,这意味着收入被侵蚀。


Qwen 3.5 Small做得越好,对阿里云的商业叙事就越尴尬。


这不是阿里一家的问题。放眼中国的科技巨头,几乎所有AI领先的公司都面临同样的结构性矛盾。百度和腾讯的处境与阿里类似——商业模式建立在云服务和平台抽成之上,小模型的端侧化趋势直接削弱了它们的价值主张。


字节跳动的豆包手机是一个有趣的例外,但字节做硬件才刚起步,远没有建立起「芯片+操作系统+模型」的垂直整合能力。


华为理论上最有条件,既有芯片,又有终端设备。但在制裁的影响下,它的算力上限本身就逼着它走小模型路线,这更多是被动的求生策略,而非主动的战略选择。至于小米、OPPO、vivo,它们有设备,却不是AI-first的公司,缺乏自研模型的基因和持续投入的动力。


全球范围内,真正打通端侧AI全栈的公司,可能只有一家:苹果。芯片、设备、操作系统、自研模型,全部自有。苹果的动力来自复合型的商业模式,这驱动它把一切计算尽可能留在设备上,因为每一次端侧AI体验的提升,都会转化为硬件的溢价和生态的黏性。


不过,这里需要诚实地处理一个可能的反驳:云厂商难道不能走「端云协同」的路线吗?用小模型做端侧入口,复杂的推理任务回调云端处理,两边都不耽误。


理论上可以。但这恰恰说明了问题——在端云协同的框架下,小模型对云厂商来说是「引流工具」,而不是「独立产品」。云厂商没有动力把小模型做到好到不需要云。


还有一个绕不开的反例:微软也是云厂商,但它在认真做Phi-4系列小模型,而且已经商用上线。这是否说明「左右互搏」的论点站不住脚?


非也。微软之所以能两条腿走路,是因为它同时拥有Windows和Surface的硬件生态、Azure的云平台以及Copilot的端侧产品线。做Phi-4对微软来说是防御性布局:如果端侧AI的趋势不可逆转,为了大局,宁可壮士断腕,自折一臂,也不能把端侧市场拱手让给开源社区和苹果。


但阿里没有这个选项——没有消费级操作系统、没有主流终端硬件、没有面向个人用户的AI产品矩阵。Qwen做得再好,也没有自家的「最后一公里」可以落地。


动力不同,产品的天花板就不同。


这就形成了一个令人不安的画面:小模型从实验室走向产品的真正瓶颈,不是技术能力,而是供需错位;最擅长做小模型的公司(云厂商),最没有动力让它真正成功;最需要小模型的公司(设备厂商),又缺乏独立研发的能力。


「没问题的」


回到林俊旸的那条朋友圈,「继续按照安排好的干,没问题的」。


也许技术路线确实没有问题,一切都在朝着正确的方向走。但在一家以云为重的公司里,就算做出世界级的小模型,团队的处境注定不会舒适。


这不是对阿里的批评——任何一家以云收入为生命线的公司,面对一项可能侵蚀自身收入的技术路线,都会陷入同样的两难。这是一个结构性矛盾,不是个人或管理层的选择问题。


比人事更值得关注的,是Scaling Law本身正在发生的变化。


过去三年,「越大越好」不仅仅是一条技术规律,它是整个AI行业的信条。融资叙事围绕它建立——投资人相信更大的模型意味着更强的能力,所以万亿美金涌向算力基础设施。人才分配围绕它运转——最顶尖的研究者被吸引到训练最大模型的团队。硬件投资围绕它定价——英伟达的市值在2025年一度突破3万亿美金,而这个估值建立在一个前提之上:对算力的需求会永远增长。


现在,这个前提正在松动。MIT的研究估计,效率提升将使中等硬件上的模型在5到10年内逐步追平最大最贵的模型。芝加哥大学的研究表示,数据质量正在取代数据规模成为核心竞争维度。



产品化的方向不再只有云端,而是同时向端侧扩散。Scaling Law正在从一条单调递增的曲线,变成一张需要在多个维度上寻找最优解的地图。


不再是「越大越好」,而是「在对的地方,用对的大小」。


林俊旸大概比大多数人更早地感受到了这个变化。他用Qwen 3.5 Small证明了一件事:在对的方法论下,9B参数可以击败120B。但他同时也撞上了另一堵墙——技术上的正确,不等于商业上的可行,更不等于组织上的舒适。


也许这才是「安排好的」真正的含义:技术路线已经铺好了,剩下的问题不在实验室里,而在实验室外面。

AI创投日报频道: 前沿科技
本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定