AI时代,人的价值到底由谁说了算?
2026-01-27 13:37

AI时代,人的价值到底由谁说了算?

本文来自微信公众号: 散人懂四六 ,作者:王睿


周末,别人转给我一个热门视频,关于两人的对谈。被访谈者为“OpenAI核心工程师”翁家翌。翁工的核心观点是“世界是确定的,命运是可以被预测的,不存在个人意志,所有的东西都可以被预测,理论上这就可以用AI来解决。人类开发AI,是为了搞清楚为什么世界是宿命论的,从而可以越狱”。


转给我这个视频的人是位北大的高材生,被这段访谈的内容吓到了,让我看看。看完视频,我笑了。


一周前,马斯克在达沃斯也发表了关于AI的预言——AI让我们走向一个惊人的富足时代。


看出什么了吗?两个搞AI的人,都在告诉你AI的好处——能让你活得更明白、更自由、更富足。


随着AI的发展,世界已经越来越明显地被区分为两拨人:AI的局内人和局外人。AI发展的叙事,被局内人主导。原因很简单,局内人更有发言权,没有躬身入局的人无从谈起;再加上AI已经背负美国唯一经济增长点的重任,声势浩大更不足为奇。


但当一个AI工程师的视频可以引起如此广泛的关注,甚至带来好好读过书的人对世界观的恐慌,我觉得有必要回到更基础的学科,审视这些“聪明”的言论了。


视频中,当被问到他为什么如此坚信世界是确定的?翁工回答:“有一些我的个人经历吧,不方便说。”听到这时,我想起了庄子讲过的一段话。


2300年前的一天,风和日丽,庄子指着天,开始怀疑自己看到的是不是真的,他问:“天真的是蓝色的吗?天有边界吗?大鸟飞到高空,再往地面看,看到的也是一团模糊吧”。(原文附于文末)


庄子提的问题,我们现在都知道答案了:天的蓝色是大气散射造成的视觉效果,大气层之外的宇宙,一片漆黑。但庄子在那个时代,能够在没有科学仪器的情况下,质疑自己的感知,这种自觉太罕见了。


他身体力行地提醒我们,你以为你感知到的现实就是现实本身吗?大概率不是。那只是你作为一个有限的生物,为了生存而进化出的一套低分辨率的地图。你如果通过个体的感知经验来描绘这个世界,你大概率是错的。


这在现代神经科学中有着完美的解释。你的大脑只占体重的2%,却消耗了20%的能量。这简直昂贵得离谱!所以大脑必须是一个过滤器。如果它不帮你过滤掉红外线、超声波,不帮你把复杂的现实简化成一个个简单的标签,你会被信息的洪流淹没,你会陷入彻底的混乱。你的工作记忆只能处理三到五个组块,这太少了!为了不发疯,你必须充满偏见:你看到一只鸟飞,就觉得所有的鸟都会飞;你有过几次特殊的经历,就得出结论世界都是确定。


庄子不仅察觉了个体感官经验的局限性,他还递进了一层:即使你转换视角,你确实获得了一些东西,但你也必然失去了一些东西。一只飞到九万里的鸟——那个被称为“鹏”的神话生物——当它往下看时,世界也变成了一团模糊。所以,我们人,没有上帝视角。当你是个孩子,你渴望权力和自由,觉得当大人真好;当你是个成年人,却发现这伴随着无法承受的责任重担,又开始怀念童年。我们的位置和视角局限了我们的认知。


这还不是最糟糕的,随着你转换的,还有你的心理。我们的心理一直在进行着一种运算,以让我们自我感觉良好,否则我们就该不想活了,这种心理活动会带来认知的扭曲。俗话说,手里有锤子的人看什么都是钉子。你拿起锤子的那一刻,世界在你的眼里就已经变了,你甚至觉得能把刚冒头,还皱皱巴巴的嫩叶给锤平了。


还有一类扭曲,比这个还严重。美国社会心理学家利昂·费斯廷格(Leon Festinger)在1957年提出了一个概念,叫认知失调,它是指当一个人的行为与他之前的自我认知(或态度、信仰)产生分歧时,产生的一种不舒适、不愉快的心理状态。为了缓解这种心理上的不适感,人们通常会潜意识地改变自己的态度或信念,通过自我辩护来使自己的行为显得合理,从而恢复心理上的平衡。


AI的发展充满未知,我们都已经看到它既能创造巨大的价值,又已经在造成大规模失业,未来还可能毁灭人类。如此巨大而不确定的冲击下,每个人对它的态度,都很难躲开认知失调。


当某人因无法克服的因素,只能是AI的局外人时,会更容易对AI感到恐惧,唱衰它的前景,批判它的价值,为自己身处局外找合理性;一旦想入局,便会不断寻找它的价值和意义,为入局找足够充分的原由;而局中的人,会挖空心思强调AI对人类的价值,一方面,让自己参与人类可能的毁灭感到心安理得,另一方面,为游说监管政策、影响媒体舆论创造良好环境。


所以,我的偶像芒格说过一句话,“对那些从建议中获益的顾问,永远保留一分怀疑。他们的建议,可能服务于他们的利益,而非你的。”他管这个叫警惕激励陷阱。


讲完立场带来的认知偏差,庄子继续讲生命经验给我们的认知带来的局限性。他讲了个蜩与学鸠嘲笑大鹏的故事。这两个小家伙看到大鹏要高飞九万里,表示不解,说:“我飞到树上就够了,为什么要飞九万里?”它们不仅仅是不理解,它们是无法理解。这就引出了庄子的论断:“小知不及大知,小年不及大年。”(原文附于文末)


这是一个残酷的能力层级。朝菌不知道什么是只有人类才能理解的时间跨度;那种只能活一个夏天的蝉,根本无法概念化什么是“冬天”。它们的生物学结构决定了它们的认知边界。但这不仅仅是生物学机制,这更是一个选择问题。问题不在于你有盲区——因为你是进化的产物,你必然有盲区。问题在于你是否爱上了你的盲区。


看看现在的互联网,这就是一场灾难。太多的人死守着自己那点可怜的经验,把它当作宇宙的终极真理,然后试图摧毁任何持有不同观点的人。这就是意识形态的着魔。这很危险,这真的非常危险。


所以,庄子真正想告诉你的是什么?他不是让你“开心一点”。他是让你谦卑。


你需要意识到,你就站在那个“小知”的位置上。也正因此,当面对AI这样一个前所未有的新事物,有人摆出“大聪明”的架势,从世界的确定性、到自由意志问题都可以言之凿凿时,其说的内容不足以让人害怕,但其自信的态度,反而值得警醒,尤其是当他们是掌握了工具的人。


事实上,他们所提到的这些问题,自古以来,就吸引了众多人的反复观察和讨论,从印度的瑜伽士、佛教的高僧、哲学家、神经科学家、量子物理学家,他们各有各的角度,阐述了对这些问题的看法,这既是多学科的交汇点,也是科学和玄学的交集。


好莱坞编剧们受他们启发拍出《黑客帝国》,而翁工对世界的看法,正是该剧的剧情。马斯克看来也是该剧的粉丝,一直不断在说,我们生活在一个模拟世界里,所以他搞脑机接口,上火星。


当《黑客帝国》成了AI玩家们的缪斯,但《黑客帝国》的缪斯们,那些真正的科学家、哲学家们、冥想大师,却被丢到了一旁无人问津。前不久,懂王复刻了《杰克.莱恩》里5个CIA探员开着直升机抓委内瑞拉总统的剧情。世界的尽头越来越像是文娱业,各行各业都从剧本里找思路。与其相信文娱剧本,不如好好了解一下编剧的缪斯们已经对人的主体性进行过的探索。


当下,文科无用论甚嚣尘上,AI从业者们从各个角度提溜普通人:你们没有意义,世界没有意义,AI才能帮助这个世界。听多了,大众也迷糊起来,跟着别人糟践起自己。但庄子早就给了个方法论——拉长时空看世界,有意识地取“大知”。


在历史的长河里,一个否定人文价值的时代,从来不曾是好时代。在没有现代科学时,一个可以借鉴的例子,是丛林法则横行的五代十国,那个时代,拳头说得算,把人当成“两脚羊”吃,人命一钱不值。类似的现象,同样发生在工业化的早期,所以马克思要写《资本论》。生产力的发展从来不必然带来社会公平的提升,稍有人文训练的人就明白这个常识,我这个理科生对此也略知一二。


我并非认定翁工和马斯克说的都不对。但我清楚知道,AI是否能达到他们说的那些美好的目标,没人能保证,因为没有人有上帝视角,也罕有人能克服自己的认知失调;不过,如果你信了那些话,认为自己没有价值,生命没有意义,那你这条命的价值,就真由他们说的算了。

AI创投日报频道: 前沿科技
本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。
正在改变与想要改变世界的人,都在 虎嗅APP