看到苹果和谷歌重磅联合声明的时候,我正在用Gemini 写代码
2026-01-13 13:29

看到苹果和谷歌重磅联合声明的时候,我正在用Gemini 写代码

本文来自微信公众号: MacTalk ,作者:池建强,原文标题:《看到苹果和谷歌重磅联合声明的时候,我正在用 Gemini 写代码》


最近迷上了用Antigravity做东西,今天照例利用早上的时间写点东西,发现在墨问群里发了这个声明的截图,是Google Blog的内容:


经过审慎评估,苹果认为谷歌的人工智能技术为苹果基础模型提供了最强大的基础。


看着这句话,我有点恍惚:十年前iOS和安卓的战争延续至今,如今两家巨头坐下来谈的是——谁来当iPhone上的“AI大脑”。这次合作,大概会被写进智能手机史和AI发展史吧。


1


这份合作协议的核心其实就是一句话:下一代Apple Foundation Models,将基于Google的Gemini模型和云技术构建,并为未来Apple Intelligence功能提供底层支撑,包括今年要上线的“更具个性化的Siri”。


翻译一下就是,iPhone和Mac等系列产品的AI基础能力,后续将由Google提供(国内AI合作伙伴,按之前的消息应该是百度和阿里)


Siri的重构开始依靠Gemini的能力,Apple自己的模型干啥呢,估计是给Gemini写提示词,并且确保用户隐私、安全性、信息准确、合规等。


从WWDC 2024到现在,Apple Intelligence的节奏之慢令人发指:2024发布会上画了一个很漂亮的大饼——理解上下文、跨App操作、自动总结、帮你处理邮件和文档,Siri第一次看起来像个智能助理了,而不是一个“现阶段最傻的语音助手”。


巴特,这事一直没搞出来啊。重要能力一再跳票,发布时间一推再推,大模型参数、推理能力、知识广度全面落后,AI团队核心成员不断流向Meta、OpenAI、xAI……


这是整啥哩?于是,苹果借助(接住了)Gemini这根“(救命)稻草”搞AI,这充分说明,苹果自己搞不定了丫。


在当前这轮大模型军备竞赛里,苹果的短板已经无法靠内部组织调整和研发赶进度补齐了。


2


那么问题来了,为什么是Google,而不是OpenAI?


2025年Google后来居上,人们都觉得Gemini已经打败ChatGPT了,其实并非如此。


Google(Gemini)与OpenAI(ChatGPT)在移动端的活跃度上存在显著差距,OpenAI目前在2C消费端处于“断档式领先”地位。ChatGPT的日活用户数(约4.85亿)大约是Gemini的5到6倍。


从使用场景上看,ChatGPT的移动端统治力极强,被用户视为“生活助手”,许多人将其放在手机首屏;而Gemini在很大程度上被视为周一至周五使用的“牛马工具(工作工具)”,如用于写代码或制作PPT等等。


基于这些考量——并且——苹果之前已经在系统里接了ChatGPT啊,为什么基础模型层面反而选了Google呢?


我们尝试从技术、商业和控制力这几个方面理解一下:


1)技术层面:Gemini的位置


过去两年,Google从Bard这个“半成品”一路爬回第一梯队,靠的是Gemini系列。


-多模态、长上下文、大规模推理能力上,Gemini 3系列已经稳定在行业前列


-自己掌控从算力、框架、模型到云平台的全栈,这一点是初创公司很难做到的


-官方自己公开过惊人的Token消耗量——这背后是工程化和基础设施能力


对苹果来说,它需要的是:


能撑住全球数十亿部iPhone日常请求的基础设施


能配合它做私有云计算和隐私隔离的工程团队


能根据它的节奏做深度定制,而不是反过来被供应商牵着走


这些条件叠加起来,Google这家资金充裕的大厂确实比OpenAI、Anthropic更像一个“供应链伙伴”。


2)商业和历史:十几年的合作信用


写了这么多年文章,我自己就讲了Apple和Google的爱恨情仇故事:


初代iPhone自带Google地图和YouTube,Safari每年从Google拿数十亿美元搜索分成,iCloud部分加密后的数据就直接放在Google Cloud上……


苹果这次是挑了一个可以合作、并且已经合作了十几年的老伙计:“在我们能接受的伙伴里,Google是条件最平衡的那一个。”


3)控制权:谁愿意站在幕后


这次合作,Gemini更多扮演的是“幕后导师”的角色,用来训练和增强苹果自研基础模型,而不是直接接管前台交互。


这点很重要:Siri和Apple Intelligence在用户眼中的人格、体验和接口,仍然是苹果自己掌控的,用户数据在苹果设备和私有云里处理,Google理论上碰不到,即便未来苹果自己的万亿参数模型成熟了,也可以继续把Gemini当成训练对比、强化学习的“参照物”。在能力不足的时候,先借一套现成的大脑来补补课,OpenAI在这方面的可谈空间,估计没这么大。


3新一代Siri可能会成为Apple Intelligence的统一入口。


从目前披露的信息看,新Siri至少要扛起这么几件事:


做你的“屏幕理解层”:看到你在看什么,理解当前上下文


做你的“个人工作流编排器”:跨App帮你完成事情,而不只是打开应用


做你的“个人知识摘要器”:把长文档、网页、邮件变成可用的信息


这些能力背后,本质上都是大模型的事:推理、规划、代理、多轮对话、理解上下文等等。但考虑到苹果海量用户和长期以来对用户隐私的执念,我估计iOS在Gemini的加持下会有更好的端侧AI服务。


目前手机上的AI Agent,我看到的方式有两种,一种是在云端搞一个虚拟机,你需要使用AI Agent的App装到虚拟机里做隔离,然后赋予登录态,可以让AI Agent去操作你云端的App。另一种是豆包手机那种,简单粗暴,直接用豆包的大模型驱动AI Agent帮助用户操作其他App完成相关的功能。


目前这两种方式都不够好,我还是很期待从操作系统级别长出来的AI Agent是怎么干的。如果ChatGPT和Gemini干的不错,那么国内的百度和阿里应该也能做好,毕竟大部分人都用国行iPhone。


4


Apple已经放弃自研大模型了吗?从现有报道来看,答案是否定的:


自研万亿参数模型的节奏只是被往后推了,时间点估计在2027年左右。Apple仍然在围绕“App Intents(应用意图)”去做系统级整合,这是只有操作系统厂商能玩的游戏。


从现在到2027,Apple可以一边用Gemini保证体验不太难看,一边构建基础设施,补齐人才、算力、数据和AI能力的短板。


Apple和OpenAI、Google、阿里、百度的合作,无非是用资金、生态,换回一个时间窗口,否则在AI突飞猛进的时代,苹果实在是太尴尬了。


等到自研模型真正能打的时候,Apple完全可以在后台把模型逐步换成自己的,而不改变前台体验。


这和当年Apple用Google地图做过渡,最后切换到自家地图,如出一辙。区别在于,这一次对手和环境都更凶险,周期更长。


5


如果苹果和Google——包括国内的大模型厂商——能按现在的节奏落地,未来两年里,普通用户大概率会感受到几件事,这是我的预测:


1.Siri在AI加持下终于变聪明了,能听懂你在手机上“正在干什么”


2.能根据当前屏幕内容给出更合理的建议


3.能让App帮你处理一些事,而不是动不动就搜索网页


4.直接通过语音的方式和大模型进行交流和处理复杂问题


5.Apple会推出第三方App接入AI大模型的方案,在保护厂商和用户隐私的情况下实现跨App事务


6.会有端侧小模型


7.iOS原生的App会好用不少……


在国行设备上,这条路可能会更慢一点、更拐弯——本土大模型会更重。


苹果在产研上一向喜欢“闭门造车,自研一切”,操作系统和编程语言都是自己的,但在大模型这场竞赛里,它已经错过了几轮窗口。这次合作,更像是承认现实、先把欠的作业补上,再谈梦想(大饼)。


另外,这件事对目前已经在手机首屏装满了AI App的用户来说,其实也没那么重要。我感觉对苹果自己更重要一点,它的突破,对自己的生态很重要,对它在AI时代保持领先和行业地位很重要。其他手机厂商也是一样的。


安卓是很自由开放,但也没人搞出像样的手机端AI Agent啊?

AI原生产品日报频道: 前沿科技
本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。
正在改变与想要改变世界的人,都在 虎嗅APP