本文来自微信公众号: MacTalk ,作者:池建强,原文标题:《DeepMind 创始人 Hassabis 语出惊人:百万 token 只是在贴胶带,AGI 在 2030 年》
Demis Hassabis是谁?他是英国计算机科学家、人工智能专家,也是Google DeepMind的联合创始人兼CEO,AlphaGo之父。这个70后老哥2024年还因为蛋白质结构预测工作获得诺贝尔化学奖,可以说是史上靠AI技术获得诺贝尔奖第一人。
我在五一假期里看了他的一期访谈,是Y Combinator(YC)访谈系列节目《如何构建未来》,在这期访谈里,Demis Hassabis罕见地坦率评估了AGI的进展:当前范式大概率是最终架构的一部分,但持续学习、长期推理和记忆的问题仍未完全解决,可能还差一两个关键突破。
AGI什么时候可能实现?他认为是2030年左右,这次访谈,Hassabis从这个锚点出发,讨论了Agent、蒸馏、科学发现和创业者该如何规划自己的路径。
以下是我从这次对话中提取的核心观点:
1、AGI还缺什么
大规模预训练、RLHF、思维链——这些几乎确定会是AGI最终架构的组成部分。
Hassabis说他无法想象几年后我们会发现这是一条死路。但在这个基础之上,他给出了个一个缺失清单:持续学习(continual learning)、长期推理(long-horizon reasoning)、记忆的某些面(aspects of memory)、以及系统间的一致性。
他的判断是五五开——也许渐进式创新就够了,也许还需要一两个大的idea。
百万token的上下文窗口已经很大了,但是把一切都塞到上下文里的做法本质上是在用胶带勉强应付。Hassabis用人类工作记忆做类比:类比人类,我们只有大约7个记忆槽位,AI有数百万个,但问题不在于容量——而在于从海量信息中找到当下决策真正需要的那一条。
更实际的问题是:如果你想处理实时视频,百万token大约只够20分钟。一个真正了解你生活的产品,需要的远不止这些。他的博士研究方向恰好是海马体如何在睡眠中将新知识整合进已有知识库——这正是AI目前做不好的事。
2、强化学习的回归
Demis Hassabis的成名作之一是AlphaGo,直到现在,思维链推理模型,本质上依然是AlphaGo开创的理念以更通用的形式回归。蒙特卡洛树搜索、强化学习增强——这些“旧想法”正在被重新应用于基础模型。DeepMind从创立之初就在做智能体系统,从Atari到围棋到星际争霸,逐步提升复杂度。核心问题一直是:这些方法能否从游戏推广到世界模型?过去几年的进展表明,答案是肯定的。
推理仍然粗糙的,模型能解国际数学奥林匹克金牌题,却仍会犯聪明本科生都不会犯的错误(比如步行洗车问题)——这种参差不齐说明推理机制还不完整。
Hassabis拿下棋举例:他观察思维轨迹时发现,模型会考虑一步棋、意识到它是错的、找不到更好的、然后照走不误。一个精确的推理系统不应该出现这种行为。他认为差距很大,但弥补它可能只需要一两项关键调整。
仅仅想出第37步棋是不够的。这很酷,但它能发明围棋吗?————Demis Hassabis
3、Agent:刚刚起步
有用但不够自主
AGI必须是能主动为你解决问题的活跃系统,Agent是通往这个目标的必经之路,但目前仍处于试验阶段。Hassabis的判断来源:我们还没有看到一款AAA级游戏是由Agent实时编码开发并登上排行榜的;也没有看到一个孩子用AI做出千万销量的热门游戏。这说明还缺少某些东西——可能是流程,可能是工具。
他认为缺乏持续学习是关键瓶颈:Agent无法从具体环境中实时学习。但他也坦言,也许答案不在系统本身,而在于使用方式——一个足够有创造力的人,能用今天的工具做出非凡的东西,前提是注入人性的灵魂和品味。
先是1000倍的个人,后才是自动化
全自动智能体不会首先出现。更可能的路径是:先有人以1000倍效率运行,然后流程逐步自动化。这是一个务实的时间表判断。工程师的生产力已经比半年前提升了500到1000倍,这个趋势会先于完全自主的智能体到来。
4、蒸馏、边缘与开源
小模型的天花板还很远:
前沿模型发布一年内,同等能力就能出现在边缘设备上。Hassabis说他没有看到蒸馏的理论极限,信息密度可能终有上限,但目前离那个上限还非常远。Google必须服务十二亿用户产品——搜索、YouTube、地图——这给了他们极强的动力去制造更小、更高效的模型。
小模型的价值不仅在于成本,更在于速度带来的迭代收益。95%的性能加上10倍的速度,在编码等协作场景中,净收益远超那5%的差距。加上隐私和安全考虑,边缘运行将是理想状态:本地处理音视频信号,只在必要时委托给云端大模型。
开源的战略逻辑:
边缘模型放到设备上后本来就容易被逆向,不如直接开放。这是Google决定将Gemma和Nano尺度模型开源的战略理由。Gemma 4在两周半内达到4000万次下载。Hassabis还提到了一个地缘因素:在开源领域保持西方技术栈的竞争力很重要。
5、推理成本不会归零
推理成本下降不会带来“免费智能”,而是催生更大的消耗——数百万智能体协同、多方向思考后整合。即使核聚变和超导解决了能源问题,芯片的物理制造仍有成本。至少在未来几十年内,推理资源仍需配给,效率仍然重要。
Demis Hassabis:我们会用掉我们能弄到手的一切。
6、科学:AI作为终极工具
AlphaFold式突破的配方:原来大家觉得「几乎不可能」或要几十年才能搞定的科学难题,被AI用一种新的范式一下子攻破,比如AlphaGo之于围棋、AlphaFold之于蛋白质结构预测。
三个条件:大规模组合搜索空间、可明确指定的目标函数、以及足够的数据或模拟器来生成合成数据。围棋的走法数超过宇宙原子数,蛋白质构型也是如此——暴力破解无望。但有了明确的优化目标(围棋中的胜负、蛋白质中的自由能最小化)和可以生成训练数据的环境,AI就能从海量可能性中找到答案。药物研发也符合这个模式。
他还谈到了虚拟细胞:完整的虚拟细胞模拟大约还需要十年,DeepMind正从虚拟细胞核开始。核心难题是数据:目前没有技术能在不杀死细胞的情况下以纳米级分辨率对活体动态细胞成像。如果能做到,就变成了一个视觉问题,而视觉问题是AI擅长的。在那之前,需要构建更好的动态系统模拟器。
爱因斯坦测试:真正的科学发现不是模式匹配,而是类比推理——提出全新假设,而非解决已知问题。Hassabis提出了一个思想实验:用1901年的知识训练系统,看它能否独立得出狭义相对论。他坦言目前没有系统能做到这一点,也没有任何实验室展示过真正意义上的重大发现。但他认为这不涉及魔法——系统最终能做到,可能只差一两件事。
7、给创业者的建议
深度科技+AGI时间表
如果你今天开始一段深度科技之旅,AGI会在中途出现——你必须把这件事考虑进去。深度科技通常需要十年才能成熟,而Hassabis预计AGI大约在2030年到来。这不一定是坏事,但你必须想清楚:AGI系统会如何处理你正在做的事?你的产品能否利用它?
他给出的具体方向:AI与其他前沿技术的交叉领域(材料科学、医学)——这些领域涉及原子世界,不会有捷径,也不会轻易被下一次模型更新颠覆。理想的创始团队既懂机器学习,又是应用领域的专家。
8、最后一条:解决困难问题并不比解决简单问题更难——它们只是难的方式不同。生命很短,时间和精力有限,最好把生命力投入到那些“如果你不去推动,就不会发生”的事情上。跨学科、做自己真正热爱的事、找到那些别人还没看到的领域之间的联系。
