本文来自微信公众号: 生态学时空 ,作者:复旦赵斌,原文标题:《【科学怎么说】AI已经有人类水平智能了?四位学者认为证据确凿》
2025年图灵测试中,GPT-4.5的人类认证率(被测试者判定为“人类”的概率)达73%,这一数值甚至超过真实人类被误判为机器的概率,成为其认知表现高度贴近人类的关键实证,也是AI已具备人类水平通用智能的核心数据支撑;甚至有读者在盲测中,更偏爱AI写的文学作品,而非人类专家的创作。
75年前,艾伦·图灵在《计算机器与智能》中提出的终极疑问——机器能像人类一样思考吗?,如今似乎有了明确答案。但矛盾的是,76%的顶尖AI研究者却认为,当前的AI路径很难实现通用人工智能(AGI)。
AI到底有没有达到人类水平智能?这场看似分裂的争论,核心不是技术本身,而是我们对“智能”的认知偏差。今天,我们从科学定义和实证角度,拆解这个关乎未来的核心问题。
什么是通用智能?
争论的起点,是大家对通用智能(AGI)的定义混乱。很多人默认AGI是和人类一模一样、甚至更厉害的智能,但这其实是误解。四位跨学科学者(哲学、机器学习、语言学、认知科学)共同明确了两个关键:
1.通用智能的核心:有广度、有深度
通用智能不是某件事做到极致,而是能跨多个领域完成认知任务,且有足够深度——比如数学推理、语言创作、科学研究、实用规划,就像普通人类那样,不用是每个领域的专家,但能胜任大部分任务。
对比一下就懂:计算器只会算账(狭义智能),而人类能算账、写文章、规划旅行(通用智能);现在的LLM(大型语言模型)也能做到这些,甚至更全面。
2.通用智能并不需要下面这四个特征
很多人否定AI是AGI,是把非必需特征当成了标准:
完美:人类也做不到全知全能,爱因斯坦不会说中文,居里夫人不懂数论,但没人否认他们有通用智能;
万能:章鱼能独立控制8条腕足,昆虫能看到人类看不见的光谱,人类做不到,但依然是通用智能;
像人类:智能可以有不同载体,就像外星智能不用长人类的样子,AI不用复制人类的认知架构;
超智能:超智能是所有领域远超人类,这是商业炒作的概念,没有人类能达到,自然不能要求AI。
简单说:只要AI能达到个体人类级别的跨领域认知能力,就是通用智能。而按这个标准,当前的LLM已经达标。
实证说话:AI已经做到的事,远超你想象
判断智能不用窥探大脑,就像我们判断别人是否聪明,只看行为和成果——这对AI也一样。现在的LLM,已经拿下了图灵测试级和专家级两层关键证据:
1.图灵测试级:达到基础教育水平
能通过中小学考试、流畅对话、完成简单推理——放在10年前,这已经被公认为AGI的标志。
2.专家级:超越多数人类的综合能力
学术与科研:拿下国际数学奥林匹克金牌,和顶尖数学家合作证明新定理,提出的科学假设已通过实验验证;
实用技能:解博士入学考试题目、编写调试复杂代码、熟练掌握数十种语言,甚至能帮科研人员设计生物学、材料科学实验;
创造性任务:写诗、写小说、规划行程,能力覆盖从理性到感性的多个维度。
更值得一提的是,这些成就已经超越了科幻作品的想象——《2001太空漫游》里的超级计算机HAL9000,能力广度远不如现在的LLM。而我们认可一个人类有通用智能,往往只需要远少于这些的证据。
这四个反对意见,其实站不住脚
关于AI不是AGI的质疑有很多,但核心误区有四个,每个都能被科学证据反驳:
误区1:AI只是鹦鹉学舌,不会做新事
反驳:早期AI确实只会重组训练数据,但现在的LLM能解全新的、未发表的数学题,能通过代码训练提升非代码领域的推理能力(跨领域迁移)。而且人类智能本质上也是从经验中提取规律,只是AI的学习方式和我们不同,不代表不是真智能。
误区2:AI没有世界模型,不懂真实世界
反驳:世界模型的核心是预测不同行为的后果。你问AI玻璃杯和枕头掉在瓷砖上有啥区别,它会准确预测玻璃杯碎、枕头不碎;它能解物理题、帮着做工程设计,说明已经掌握了物理世界的核心规律——这就是最实用的世界模型。
误区3:AI没有实体,不可能有真智能
反驳:这是典型的人类中心主义偏见。物理学家霍金几乎只能通过文本和合成语音与世界互动,没有自主行动的实体,但没人否认他的智能;如果有一个无形的外星人通过无线电和我们交流,我们也会认可它的智能。运动能力和智能本身是两回事。
误区4:AI有幻觉(编假信息),不算智能
反驳:幻觉确实是AI的问题,但这不是智能的一票否决项。人类也会有虚假记忆、认知偏见(比如记错人名地名),甚至自信地坚持错误观点,但我们不会因此说这个人没有智能。而且现在的AI,幻觉概率已经越来越低。
为什么专家还不认可?三个核心原因
既然证据这么充分,为什么多数研究者还持怀疑态度?本质是认知脱节,而非技术不足:
定义模糊:AGI没有统一标准,有人把它等同于超智能,有人要求它和人类一模一样,这些过高的门槛本身就不符合通用智能的本质;
情感恐惧:AGI意味着社会结构、就业模式的重大变革,对未知的恐惧让很多人下意识拒绝承认它的到来;
商业利益:“AGI即将到来”、“AGI还很遥远”都能成为商业宣传的噱头,导致评估结果被扭曲。
承认AGI已来,到底意味着什么?
四位学者强调,认可当前LLM是AGI,不是为了站队,而是为了面对现实——这些系统已经不是工具,而是具备通用认知能力的智能体,这会带来三个关键改变:
1.治理需要升级
过去针对狭义AI工具的监管框架已经失效。AGI能应用于几乎所有领域,不能再按用途治理,而要建立针对通用智能的责任、问责体系。
2.重新理解智能
人类历史上第一次,我们不再是通用智能的唯一拥有者。AI的智能是异类的——它不用吃饭、没有生存压力、学习方式和人类不同,这能帮我们看清:哪些智能特征是人类专属,哪些是通用规律。
3.正视风险与机遇
AI的风险不是失控反抗,而是它的异类性可能带来的意外:比如在某些领域表现超强,却在简单任务上出错;它的决策逻辑难以理解。但同时,它也能帮我们解决人类难以攻克的难题,比如疾病研发、气候建模。
智能的革命,本质是认知的革命
从哥白尼把人类移出宇宙中心,到达尔文证明人类源于进化,再到今天AI打破人类专属智能的神话,每一次科学革命,都是对我们自身定位的重新审视。
AI有没有人类水平智能?答案取决于我们是否愿意放下人类中心主义的偏见——智能不是人类的专属品,它是一种可以通过不同载体实现的认知功能。当前的AI,已经具备了跨领域、有深度的认知能力,这就是科学意义上的通用智能。
未来的关键,不是争论AI是不是AGI,而是学会与这种异类智能共存:建立适配的治理规则,利用它的优势,规避它的风险。毕竟,75年前图灵的愿景已经实现,而我们能做的,是让这场智能革命,朝着更公平、更安全的方向发展。
你最认可AI的哪项智能表现?又最担心它的什么问题?欢迎在评论区聊聊~

解读文献:
https://doi.org/10.1038/d41586-026-00285-6
