苹果想靠Siri 再造一个App Store:谁赞成,谁反对?
2026-03-27 10:22

苹果想靠Siri 再造一个App Store:谁赞成,谁反对?

本文来自微信公众号: 爱范儿 ,作者:发现明日产品的,原文标题:《苹果想靠 Siri 再造一个 App Store:谁赞成,谁反对?》


两年前的WWDC 2024,Craig Federighi站在Apple Park的舞台上,用一种精心克制的兴奋感宣布了Apple Intelligence。



Siri终于要变聪明了,ChatGPT被请进了iOS生态,而苹果自研的小模型会在本地安静地处理你的邮件摘要和文本改写,当时台下的开发者,仿佛看到这样一个愿景。


那一刻,苹果似乎找到了一条既能拥抱生成式AI又不必放弃隐私叙事的中间路线。


两年后的今天,那条中间路线已经面目全非。


苹果AI负责人John Giannandrea被体面地「退休」,核心AI团队流失了十多位关键成员(其中大部分去了Meta),Siri的重大升级从2025年春天推迟到了2026年秋天,而苹果不得不以每年约10亿美元的价格向Google购买一个1.2万亿参数的Gemini模型来重建Siri的底层智能。



与此同时,Bloomberg在本周报道了另一个重磅消息:iOS 27将引入名为「Extensions」的新系统,允许任何第三方AI聊天机器人,包括Claude、Gemini、Perplexity等,通过App Store接入Siri。


换句话说,苹果现在同时在做两件事,一边用Google的Gemini重建Siri的「大脑」,一边把Siri的「嘴巴」开放给所有竞争对手。这是一套复杂的双线并行策略,既是无奈之举,也是精明的平台算计。


但要理解它的全貌,需要先回溯过去两年苹果在AI领域反复摇摆的轨迹。



短短两年,Siri转向三次


2024年WWDC上亮相的Apple Intelligence架构曾经非常清晰:苹果自研小模型处理本地任务,当用户遇到Siri无法处理的复杂问题时,系统会征求用户同意后将请求转发给ChatGPT。



这是一种「内核自研、外脑外包」的分层结构,OpenAI扮演的是唯一的外部智能供应商。


但问题很快暴露。苹果自研模型的参数规模有限——本地模型约30亿参数,云端模型约1500亿参数,在推理能力和世界知识方面与GPT-4级别的模型差距明显。


更致命的是,WWDC上演示的Siri高级功能,例如个人上下文理解、屏幕感知、跨应用操作,在发布时根本没有准备好。苹果一边在iPhone 16的营销中大力宣传这些功能,一边不得不在2025年初承认「需要更长时间来实现」。这是第一次转向的伏笔。


2025年,对苹果AI团队来说是一场风暴。


Siri升级被推迟后,苹果内部进行了组织重组:


  • Siri从Giannandrea的管辖范围被移走,交给了Vision Pro负责人Mike Rockwell


  • 机器人团队被划归硬件部门


  • Giannandrea的团队被缩减为只专注于Apple Foundation Models的研发,这在外界看来更像是一种降权而非聚焦。


随之而来的是苹果AI人才团队整个大出血。Foundation Models团队的创始人兼首席科学家Ruoming Pang被Meta以据报道超过2亿美元的薪酬挖走,十多名核心研究员相继离开,大部分加入了Meta的超级智能实验室。


苹果AI团队在内部甚至被戏称为「AIMLess」——取自AIML(人工智能与机器学习)的缩写,同时谐音aimless,意为漫无目的。


2025年12月,Giannandrea正式宣布将在2026年春天退休。接替他的是Amar Subramanya,一个在Google工作了16年、曾领导Gemini Assistant工程团队的人。


几乎同一时期,苹果与Google的AI合作从传言变成了现实。2025年11月Bloomberg报道了约10亿美元年费的交易框架,2026年1月12日双方发布联合声明正式确认,Apple Foundation Models的下一代将基于Google的Gemini模型和云技术构建。


值得注意的是,苹果在做出这一决定前曾在内部对多家AI公司的模型进行了「bake-off」测试,Anthropic也在被考虑之列,而最终选择Google的关键因素据说不是模型性能,而是价格和基础设施的成熟度。这是第二次转向。


本周的消息则补全了第三块拼图。在用Gemini重建Siri底层能力的同时,苹果还在iOS 27中准备了一个完全独立的「Extensions」系统,允许第三方AI聊天机器人以App Store应用的形式接入Siri。


未来,用户可以选择启用哪些Siri服务,甚至可以为不同类型的查询指定不同的AI后端。


这意味着苹果现在同时运营着三层AI架构:最底层是Apple Foundation Models(基于Gemini训练的蒸馏模型,运行在设备端和Private Cloud Compute上),中间层是Siri自身的对话和任务执行能力,最外层是通过Extensions接入的第三方AI服务。


三层之间的关系并非替代,而是互补,至少在苹果的设想中是这样。


苹果AI重新洗牌


这套新架构对AI行业各方的影响并不均匀。


Google是毫无疑问的最大赢家。它在这场交易中获得了一个极为罕见的双重地位,既作为苹果AI基础设施的底层供应商拿到了每年约10亿美元的合同,又可以通过Gemini app以Extensions的形式直接触达数十亿iOS用户。


但硬币的另一面是,Extensions的出现也稀释了Gemini的独占叙事。


在Extensions货架上,Gemini的app版本和Claude、Perplexity站在同一排,Google股价在本周消息公布当天盘中跌至当日最低点、收盘跌3.06%,正是市场对这一层面的即时反应。Google同时是最大赢家和部分输家,取决于你看的是哪条线。



对于Anthropic和Perplexity这类垂直AI公司,几乎可以说是最大的赢家,获得了一个此前不存在的分发渠道。


在爆料中,Claude被直接指出是能够通过Extensions接入Siri的服务之一。对Anthropic而言,这意味着无需与苹果单独谈判整合协议就能获得iOS用户的入口,考虑到Claude在编程辅助和长文本理解方面的差异化优势,它有机会成为技术用户在Siri中的首选外脑。



Perplexity的在搜索场景的能力不输任何一家大牌AI,但知名度和对用户的触达能力要略逊一筹。Extensions的推出,让Perplexity和竞争对手站在了同一起跑线。



在国内语境下,Extensions更利好的是像Kimi这样模型能力出众、却缺少国民级入口的AI服务商;而对于腾讯元宝这类平台声量远高于模型实力的「分发者」,则无异于一次重击。



从本质上来说,Extensions把Siri变成了一个AI服务的分发平台,对所有有App Store应用的AI公司来说都是增量机会。


至于苹果,他们大概率会和App Store一样继续「躺赢」,在Siri入口抽取订阅的15%-30%不等的「苹果税」。


AI订阅正在成为科技行业增长最快的收入来源之一,苹果不需要赢得AI模型的竞赛,只需要确保所有AI模型都必须经过它的收银台。你们比谁更聪明,我来收过路费。


App Store通过15%-30%的抽成,实现了4000亿美元的年收入,随着生成式AI继续爆发,谁也说不准Siri Extensions会不会成为苹果营收的下一个大头。


承受压力最大的无疑是OpenAI。自2024年底以来,ChatGPT一直是Siri内唯一的第三方AI服务,这个独占地位即将终结。


Extensions系统则相当于消除像ChatGPT这样的一次性整合交易的必要性,OpenAI从「苹果官方唯一合作伙伴」,变成了和Google、Anthropic这些对手站在同一起跑线,叙事上的降级不可避免。



更值得玩味的是,苹果在决定与OpenAI合作时,内部就已经存在分歧,Giannandrea质疑OpenAI的长期稳定性而倾向于Google。


现在来看,苹果先选了OpenAI做过渡方案,再用Google做底层重建,最终通过Extensions把所有人拉到同一起跑线。OpenAI在这个过程中扮演的角色更像是一个先行者折扣的接受者,而非长期战略伙伴。


苹果自研AI团队本身,也将会成为这个新入口的「牺牲者」。即使果官方表示仍在开发自己的1万亿参数云端模型,希望最终替代Gemini,但现实是核心团队已经流失大半,新负责人Subramanya本人就是从Google来的Gemini老将,而依赖外部模型的惯性一旦形成就很难逆转。


苹果的自研AI雄心正在从「战略目标」,似乎正在悄悄滑向「公关话术」。


放弃自研,Apple智能还有「果味」吗?


所以,苹果为什么不简单地选一条路走到底,而是同时推进Gemini底层合作和Extensions开放平台两条线?


最直接的原因是,自研模型已经没有了一个确切的交付时间表。


苹果原本计划用自研模型驱动AI Siri 2.0,但两次跳票之后,继续对外宣称「我们自己能搞定」已经缺乏说服力。与Google合作是一个务实的止血方案,用成熟的外部能力先把产品做出来,再在内部慢慢追赶。



而Extensions的逻辑则更具战略纵深。AI模型市场的格局变化太快,2024年的ChatGPT是行业共识的最佳选择,但到了2025年底Gemini已经赶上甚至超过GPT-4,Claude在长文本和编程领域建立了差异化优势,开源模型也在快速缩小差距。


押注单一供应商的风险太高,Extensions本质上是一个对冲策略,苹果不再替用户选择哪个AI最好,而是搭建一个让所有AI竞争的擂台,自己做裁判和收银员。


更深一层看,这也符合苹果一贯的平台逻辑。回顾App Store的历史,苹果从来不擅长也不热衷于自己做最好的应用,但它极其擅长建设一个让别人来做应用的平台并从中收取通道费。将同样的模式复制到AI领域,是苹果最自然的选择。


但双线并行并非没有代价。


体验割裂是最直观的风险。目前Siri的ChatGPT集成体验感极差,每次都需要用户主动用指令调起。未来接入多个AI服务后,如果用户每次唤起Siri都需要手动指定「用Gemini回答」还是「用Claude回答」,体验大概率是碎片化的。


苹果一直以来的产品哲学是替用户做选择、降低认知负担,而Extensions系统把选择权还给了用户,这在理念上是自由的,但在体验上可能是混乱的。


苹果需要设计一个足够智能的路由层让Siri自动判断哪个后端最适合当前查询,但这本身就需要一个足够强大的AI来实现,而这恰恰是苹果目前最薄弱的环节。


隐私叙事的动摇则更加深层。Apple智能的核心卖点一直是「你的数据不会离开苹果的生态系统」。苹果声称Gemini合作中的数据运行在Apple的Private Cloud Compute上且不与Google共享,但通过Extensions接入的第三方服务是否也能享受同等保护,目前完全不清楚。


▲Apple智能:行业领先的AI隐私


如果不同AI服务有不同的数据处理标准,苹果的隐私承诺就会变得复杂且难以验证,对于一个把隐私当作核心品牌资产的公司来说,这种模糊性本身就是一种风险。


而最值得长期关注的隐患是战略依赖的不可逆性。苹果坚称Gemini只是过渡方案,最终会用自研模型替代。但历史上有太多「暂时使用外部技术」最终变成永久依赖的案例。


一旦数十亿iPhone用户习惯了由Gemini驱动的Siri体验,苹果如果要切换到自研模型,就必须确保体验不出现任何退步,这对一个仍在追赶阶段、核心研究员已经大量流失的自研团队来说,几乎是不可能完成的任务。


更何况,Google完全有动机通过持续升级Gemini来提高苹果的切换成本。当你最重要的产品的智能核心运行在竞争对手的技术之上,「过渡」和「永久」之间的距离可能比你想象的要短得多。


两年前,苹果试图用一个精巧的分层架构来回避「到底谁才是iPhone的AI大脑」这个问题。两年后,这个问题不仅没有被回避,反而变得更加尖锐:答案现在是Google、OpenAI、Anthropic、Perplexity……以及一个仍然需要证明自己的苹果自研团队。



北京时间6月9日的WWDC将是一个关键节点。届时我们会知道苹果是否真的找到了一种方式让这些互相竞争的AI服务在Siri的外壳下和谐共存,还是说它只是在一个迟钝的前台增加了更多的转接线路,而每条线路都通向别人的大脑。


对于苹果来说,最大的赌注并非Gemini够不够好,也不是Extensions能不能带来新的服务收入,而是一次对苹果体验的挑战:当你把AI的核心能力分散到多个外部供应商手中,还能维持「就是好用」(it just works)这个金字招牌背后的承诺吗?


这是一个苹果从来没有面对过的问题。

AI原生产品日报频道: 前沿科技
本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定