本文来自微信公众号: APPSO ,作者:发现明日产品的,原文标题:《刚刚,苹果版 ChatGPT 曝光,AI Siri 将接管你 iPhone 上的一切》
Siri要有自己的独立App了。
不是那个按一下电源键蹦出来、说两句就断片的Siri,是一个长得像ChatGPT、能聊天、能翻历史记录、能上传文档分析的「全新Siri」。
彭博社记者Mark Gurman今天凌晨爆出了一颗重磅炸弹:苹果正在内部测试一款独立的Siri应用,代号Campo,计划6月9日在WWDC上随iOS 27一起亮相。

如果消息属实,这将是苹果自2011年推出Siri以来,对这个语音助手最大规模的一次手术。
而今年,恰好是苹果公司成立50周年。
一个在AI时代掉过队的公司,选择在自己的「金婚之年」亮出一张重新洗过的底牌。
这张牌,叫Siri。
Siri终于长大了:一个独立App、一套全新界面
这次爆料的信息量很大,我尽量翻译成人话。
最直观的变化:Siri终于有了自己的独立App。
新版Siri将作为一个独立应用出现在iPhone、iPad和Mac上。打开之后,你会看到一套完整的对话界面——历史对话列表、圆角矩形卡片、可以置顶收藏的聊天、还有一个醒目的「+」号来开新话题。
对话界面长得像iMessage的聊天气泡,底部有文字输入框,旁边有语音切换按钮,甚至还能上传文档和照片让Siri分析。
是的,苹果终于让Siri拥有了一个持续存在的、可回溯的对话空间。这件事ChatGPT做了两年多了,但苹果选在这个时间点做,意味着它想把Siri从一个「被动唤醒的助手」变成一个「用户会主动打开的工具」。
这是定位上的根本转变。
而更大的野心藏在第二个变化里:Siri正在吞掉Spotlight。
苹果正在测试用Siri取代Spotlight——就是你从屏幕中间往下一划出来的那个搜索。新的统一界面会把本地搜索和AI问答合并到同一个入口。
据爆料,Siri会被塞进Dynamic Island里。激活Siri后,顶部会出现「搜索或询问」的提示。当你提问之后,就会先弹出一个药丸形的「正在搜索」进度条,然后结果以Liquid Glass风格的半透明面板展开。想继续追问?往下一拉,就进入对话模式。
是的,没有刻意新增任何按钮,苹果只是把你最熟悉的入口悄悄换了引擎。以后在iPhone上找任何东西,第一反应不再是打开Safari或某个App,直接问Siri就行。
而如果说前两个变化还停留在「界面」层面,第三个变化才是苹果最拿手的那套:系统级整合。
Ask Siri的入口,将渗透进整个操作系统。比如选中一段文字、一封邮件、一张照片,点一下「Ask Siri」,就能直接进入对话窗口;键盘顶部还新增「用Siri撰写」入口,方便你随时调用写作工具。
尽管类似的功能在第三方App里早就有了,但苹果把它做进了系统层,每个内置App原生支持,无需跳转,无需复制粘贴。这种润物细无声的整合能力,依然是苹果最难被复制的护城河。
用Google的脑子,装苹果的壳
当然,要真正理解这套新Siri的价值,光看产品还不够。它背后藏着一段苹果不太愿意主动提起的历史。
如果将时间拨回2024年6月,苹果在那年的WWDC大会上端出了Apple Intelligence,能读懂上下文、能看屏幕、能跨App操作,甚至能从你的邮件里翻出航班信息,回答「我该什么时候去接妈妈」。演示视频做得天花乱坠。
全场欢呼,媒体盛赞。然后,就没有然后了。
科技博主John Gruber后来回忆说,那些Siri演示全是概念视频,连受控环境下的真机演示都没有。换句话说,在苹果把它搬上WWDC舞台的那一刻,增强版Siri还远没有准备好。
兜兜转转,增强版Siri延期的症结只有一个:内部测试显示,Siri只有75%~80%的时间能正常工作。用户语速稍快就会被打断,复杂查询反应迟缓,偶尔还会退回到ChatGPT集成。苹果对产品质量的执念,让它宁愿等,也不愿把一个半成品推给用户。
但这份执念也让苹果付出了真实的代价。
从去年至今,苹果AI团队数十名核心成员被竞争对手挖走。基础模型负责人庞若鸣被Meta以2亿美元签下,Siri搜索项目负责人跳槽Meta,关键研究员流失到OpenAI、xAI、Cohere。
同期,库克做了一个重要决定:把软件工程主管Craig Federighi拉来接管AI部门,又安排Vision Pro团队核心人物Mike Rockwell来统管Siri团队。
一位以强执行力著称的高管,就这样接手了苹果最紧迫的项目。
但光换帅不够。苹果自研的基础模型只有1500亿参数,而要让Siri真正「听懂人话」,需要的推理能力远超这个量级。
于是苹果做出了一个务实但大胆的决定——和Google签了大约10亿美元的合作协议,引入Gemini模型。
Google提供的定制版Gemini拥有1.2万亿参数,是苹果自研模型的8倍。新版Siri的诸多功能——摘要生成、任务规划、复杂推理——都将依赖Google的大脑。
对于一家恨不得连数据中心螺丝钉都自己造的公司来说,把核心AI能力交给竞争对手来提供,需要极大的战略定力。
但费德里吉选择了务实。因为留给苹果的时间窗口已经不多了——
智能眼镜N50等着Siri才能发售,带摄像头的AirPods等着Siri才有灵魂,那个可穿戴吊坠、智能家居中心、桌面机器人,全部在等Siri就位。
Siri不是一个功能,它是苹果未来五年所有新硬件的操作系统。
所以苹果选择了先跑起来。而且并非毫无章法——按照协议,Gemini模型将运行在苹果的「私有云计算」服务器上,用户数据不经过Google。苹果借用技术,但牢牢握住隐私。
而且苹果的架构设计本身就是模块化的:端侧小模型处理简单任务和隐私敏感操作,云端大模型处理复杂推理。这种「插拔式」架构,让苹果可以随时更换背后的引擎,而用户无感知。
今天用Gemini,明天自研模型追上了,换掉就是。
某种意义上,这不是妥协,是「先租一辆好车上路,同时造自己的引擎」。
50岁的苹果,为什么值得期待
1976年4月1日,乔布斯和沃兹尼亚克在车库里创立了苹果。
2026年,苹果50岁。
过去50年里,苹果经历过被逐出、回归、濒临破产、iPod救命、iPhone封神、生态帝国成型的全部剧本。几乎每一个十年,都有一个「定义苹果」的产品:Mac、iPod、iPhone、Apple Watch。
而下一个十年,苹果押在了AI Siri上。
OpenAI CEO Sam Altman曾在纽约的一场午餐会上直言不讳:「大家别盯着Google了,OpenAI真正的宿敌,是苹果。」
在Altman看来,未来AI的主战场不在云端,而在终端。谁能率先打造出「AI原生设备」,谁就能在下一个十年占据制高点。而苹果手握数亿iPhone用户、全球最成熟的硬件供应链,还有能力将AI深度整合进芯片和操作系统。
在所有科技公司里,苹果可能仍然是最有可能在AI时代赢的那个。
原因很简单,AI的终极战场不是模型参数的大小,而是谁能把AI能力无缝交付到用户手里。苹果掌控着从芯片到操作系统到应用商店的完整链路,这是Google没有的,是OpenAI没有的,是Meta没有的。
当AI从「技术展示」进入「日常工具」的阶段,平台级整合能力比模型性能更重要。而Craig Federighi现在要做的,就是把这个潜力兑现。
独立Siri App、全新界面、Ask Siri入口、Spotlight替代——先用产品层面的巨变,让用户感知到「苹果在动了」,再用Google的模型兜底能力,争取时间让自研模型追上来。
这是一次典型的苹果式操作:用产品化能力弥补技术差距,再用时间换空间。
他们一直擅长这个。iPhone第一代也不是技术最强的手机,但它是体验最好的。Siri这次也是一样——模型不一定是最强的,但如果界面足够好用、入口足够深入、和生态的融合足够丝滑,用户可能根本不在乎背后跑的是Gemini还是苹果自研。
值得一提的是,2011年,乔布斯在生命的最后几个月,深度参与了Siri的收购和发布。他看到的不仅是一个语音助手,更是一个能从用户中不断学习、自我进化的AI系统。
15年后,Siri终于有机会变成他当初想象的样子。
苹果内部那位负责Siri团队的高管Robby Walker在一次内部会议上说过一段话,大意是:
我们游了数百英里,已经创造了游泳距离的吉尼斯世界纪录,但我们仍然没有游到夏威夷。我们被激怒不是因为我们游得很棒,只是因为我们还没到达目的地。
50岁的苹果,「正在拼命往夏威夷游」。
今年,它终于租了一艘快艇,方向也看清了。接下来就看它能不能在今年WWDC上,让全世界看到一个真正好用的Siri。
这一次,我再次选择期待苹果交出的答卷。毕竟在所有可能把AI做进每个人口袋里的公司中,苹果手里的牌,依然是最好的。
