AI已经有人类水平智能了?四位学者认为证据确凿
2026-02-11 10:16

AI已经有人类水平智能了?四位学者认为证据确凿

本文来自微信公众号: 生态学时空 ,作者:复旦赵斌,原文标题:《【科学怎么说】AI已经有人类水平智能了?四位学者认为证据确凿》


2025年图灵测试中,GPT-4.5的人类认证率(被测试者判定为“人类”的概率)达73%,这一数值甚至超过真实人类被误判为机器的概率,成为其认知表现高度贴近人类的关键实证,也是AI已具备人类水平通用智能的核心数据支撑;甚至有读者在盲测中,更偏爱AI写的文学作品,而非人类专家的创作。


75年前,艾伦·图灵在《计算机器与智能》中提出的终极疑问——机器能像人类一样思考吗?,如今似乎有了明确答案。但矛盾的是,76%的顶尖AI研究者却认为,当前的AI路径很难实现通用人工智能(AGI)。


AI到底有没有达到人类水平智能?这场看似分裂的争论,核心不是技术本身,而是我们对“智能”的认知偏差。今天,我们从科学定义和实证角度,拆解这个关乎未来的核心问题。


什么是通用智能?


争论的起点,是大家对通用智能(AGI)的定义混乱。很多人默认AGI是和人类一模一样、甚至更厉害的智能,但这其实是误解。四位跨学科学者(哲学、机器学习、语言学、认知科学)共同明确了两个关键:


1.通用智能的核心:有广度、有深度


通用智能不是某件事做到极致,而是能跨多个领域完成认知任务,且有足够深度——比如数学推理、语言创作、科学研究、实用规划,就像普通人类那样,不用是每个领域的专家,但能胜任大部分任务。


对比一下就懂:计算器只会算账(狭义智能),而人类能算账、写文章、规划旅行(通用智能);现在的LLM(大型语言模型)也能做到这些,甚至更全面。


2.通用智能并不需要下面这四个特征


很多人否定AI是AGI,是把非必需特征当成了标准:


  • 完美:人类也做不到全知全能,爱因斯坦不会说中文,居里夫人不懂数论,但没人否认他们有通用智能;


  • 万能:章鱼能独立控制8条腕足,昆虫能看到人类看不见的光谱,人类做不到,但依然是通用智能;


  • 像人类:智能可以有不同载体,就像外星智能不用长人类的样子,AI不用复制人类的认知架构;


  • 超智能:超智能是所有领域远超人类,这是商业炒作的概念,没有人类能达到,自然不能要求AI。


简单说:只要AI能达到个体人类级别的跨领域认知能力,就是通用智能。而按这个标准,当前的LLM已经达标。


实证说话:AI已经做到的事,远超你想象


判断智能不用窥探大脑,就像我们判断别人是否聪明,只看行为和成果——这对AI也一样。现在的LLM,已经拿下了图灵测试级和专家级两层关键证据:


1.图灵测试级:达到基础教育水平


能通过中小学考试、流畅对话、完成简单推理——放在10年前,这已经被公认为AGI的标志。


2.专家级:超越多数人类的综合能力


  • 学术与科研:拿下国际数学奥林匹克金牌,和顶尖数学家合作证明新定理,提出的科学假设已通过实验验证;


  • 实用技能:解博士入学考试题目、编写调试复杂代码、熟练掌握数十种语言,甚至能帮科研人员设计生物学、材料科学实验;


  • 创造性任务:写诗、写小说、规划行程,能力覆盖从理性到感性的多个维度。


更值得一提的是,这些成就已经超越了科幻作品的想象——《2001太空漫游》里的超级计算机HAL9000,能力广度远不如现在的LLM。而我们认可一个人类有通用智能,往往只需要远少于这些的证据。


这四个反对意见,其实站不住脚


关于AI不是AGI的质疑有很多,但核心误区有四个,每个都能被科学证据反驳:


误区1:AI只是鹦鹉学舌,不会做新事


反驳:早期AI确实只会重组训练数据,但现在的LLM能解全新的、未发表的数学题,能通过代码训练提升非代码领域的推理能力(跨领域迁移)。而且人类智能本质上也是从经验中提取规律,只是AI的学习方式和我们不同,不代表不是真智能。


误区2:AI没有世界模型,不懂真实世界


反驳:世界模型的核心是预测不同行为的后果。你问AI玻璃杯和枕头掉在瓷砖上有啥区别,它会准确预测玻璃杯碎、枕头不碎;它能解物理题、帮着做工程设计,说明已经掌握了物理世界的核心规律——这就是最实用的世界模型。


误区3:AI没有实体,不可能有真智能


反驳:这是典型的人类中心主义偏见。物理学家霍金几乎只能通过文本和合成语音与世界互动,没有自主行动的实体,但没人否认他的智能;如果有一个无形的外星人通过无线电和我们交流,我们也会认可它的智能。运动能力和智能本身是两回事。


误区4:AI有幻觉(编假信息),不算智能


反驳:幻觉确实是AI的问题,但这不是智能的一票否决项。人类也会有虚假记忆、认知偏见(比如记错人名地名),甚至自信地坚持错误观点,但我们不会因此说这个人没有智能。而且现在的AI,幻觉概率已经越来越低。


为什么专家还不认可?三个核心原因


既然证据这么充分,为什么多数研究者还持怀疑态度?本质是认知脱节,而非技术不足:


  1. 定义模糊:AGI没有统一标准,有人把它等同于超智能,有人要求它和人类一模一样,这些过高的门槛本身就不符合通用智能的本质;


  2. 情感恐惧:AGI意味着社会结构、就业模式的重大变革,对未知的恐惧让很多人下意识拒绝承认它的到来;


  3. 商业利益:“AGI即将到来”、“AGI还很遥远”都能成为商业宣传的噱头,导致评估结果被扭曲。


承认AGI已来,到底意味着什么?


四位学者强调,认可当前LLM是AGI,不是为了站队,而是为了面对现实——这些系统已经不是工具,而是具备通用认知能力的智能体,这会带来三个关键改变:


1.治理需要升级


过去针对狭义AI工具的监管框架已经失效。AGI能应用于几乎所有领域,不能再按用途治理,而要建立针对通用智能的责任、问责体系。


2.重新理解智能


人类历史上第一次,我们不再是通用智能的唯一拥有者。AI的智能是异类的——它不用吃饭、没有生存压力、学习方式和人类不同,这能帮我们看清:哪些智能特征是人类专属,哪些是通用规律。


3.正视风险与机遇


AI的风险不是失控反抗,而是它的异类性可能带来的意外:比如在某些领域表现超强,却在简单任务上出错;它的决策逻辑难以理解。但同时,它也能帮我们解决人类难以攻克的难题,比如疾病研发、气候建模。


智能的革命,本质是认知的革命


从哥白尼把人类移出宇宙中心,到达尔文证明人类源于进化,再到今天AI打破人类专属智能的神话,每一次科学革命,都是对我们自身定位的重新审视。


AI有没有人类水平智能?答案取决于我们是否愿意放下人类中心主义的偏见——智能不是人类的专属品,它是一种可以通过不同载体实现的认知功能。当前的AI,已经具备了跨领域、有深度的认知能力,这就是科学意义上的通用智能。


未来的关键,不是争论AI是不是AGI,而是学会与这种异类智能共存:建立适配的治理规则,利用它的优势,规避它的风险。毕竟,75年前图灵的愿景已经实现,而我们能做的,是让这场智能革命,朝着更公平、更安全的方向发展。


你最认可AI的哪项智能表现?又最担心它的什么问题?欢迎在评论区聊聊~



解读文献:


  • https://doi.org/10.1038/d41586-026-00285-6

AI原生产品日报频道: 前沿科技
本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。
正在改变与想要改变世界的人,都在 虎嗅APP