为什么总有人想当“懂王”?
2021-03-04 11:00

为什么总有人想当“懂王”?

本文来自微信公众号:腾云(ID:tenyun700),作者:Peter东(腾云特约作者、“集智俱乐部”常驻作者),原文标题:《“没有什么是我不懂的”:为什么总有人想成为“懂王”?》,题图来自:视觉中国


知识具有社会性,也就是说,我们在“认知”上是那么依赖彼此。


这也是《另类事实》为什么要把“后真相时代,捍卫知识就是捍卫我们自己”写在封面上的原因。


在本书中,瑞典学院院士、斯德哥尔摩理论哲学教授奥萨·维克福什(Åsa Wikforss)试图从哲学和心理学的角度理解知识受到的威胁,并提供对抗威胁所需的工具。


另类事实:知识及其敌人

奥萨·维克福什(Åsa Wikforss)


该书书名的来源,与人们对2017年1月20日特朗普就职典礼出席人数的争议有关。


当时,特朗普的新闻秘书肖恩·斯派塞称,这一次为参加总统就职典礼而来到华盛顿特区的人数是史上最多的。然而,证据并不支持这种说法。从奥巴马2009年就职典礼的照片看,当时观众的规模可要大得多,统计数据也证实当天卖出的地铁票要多得多。


情况越来越明朗:斯派塞说错了。


于是,人们开始问:为什么他会去怀疑摆在眼前的事实?总统顾问凯莉安·康威在电视上发表了后来引发热议的声明:斯派塞只不过是陈述了另类事实。


在一个充斥着虚假新闻、阴谋论、片面的故事的世界里,如果不想指鹿为马,就需要理解什么是知识,需要理解为什么真理是“坚硬”的,需要理解为什么不存在所谓另类事实。同时,还要了解有哪些心理机制(例如确认偏误、动机性推理、逆火效应)会让我们无视摆在眼前的知识,让我们深陷迷惑却不自知。


不管多强的信念,都不是知识


奥萨首先解释了“什么是知识”。哲学家们普遍认为,“知识”需要满足(至少)三个条件:


信念。即具有特定思想内容(例如,现在正下雨,地球是圆的,办公室里有18个人在喝咖啡)的心理状态;


这个信念必须是真的。思想内容必须在某种程度上符合现实:外面的确在下雨,地球确实是圆的,就是有18个人在办公室里喝咖啡;


这个信念必须以充分的理据或证据为基础。因此,仅仅靠猜测“蒙对了”的人并不具备知识。


由此可见,知识不仅仅存在于我们的头脑里,我们最容易忽视的是,他人对我们拥有的知识而言极为重要。因为知识是认知劳动分工的产物、每个人都在以不同的方式做出贡献,正因如此,知识才不只与个人有关。


正因为知识具有社会属性,所以论证的过程中我们也不能仅依靠“我以为”什么样的理由是充分的,重要的是已经“存在”的什么理由是充分的。


拆毁知识容易,重建知识难?


关于怀疑论的哲学讨论,书中总结出两条经验:


知识并不需要绝对的确定性或证明——对证明的要求反而会导致怀疑论泛滥;


指出“我可能是错的”,并不构成对我的信念的反驳。也就是说,缺少证据本身并不构成反驳。要构成反驳,就需要真正的“反证”。


那么,否定一个信念的理由应该是什么样的呢?


第一类,用可以说明我们信念为误的“证据”来否决我们的信念,哲学家称这些理由为否决因子(defeaters)


第二类,给我一个理由,通过动摇我的证据来让我怀疑自己的信念。也就是说,通过散播怀疑来动摇证据。这对理解为何会产生“抗拒知识”(例如,不愿意相信全球暖化)这个现象而言非常重要。


说了这么多,其实是想根据这些分类区分出两种抗拒证据或抗拒知识的情况——


第一种情况是,我们(有意无意地)不愿去获取相关的信息来认真测试我们的信念。我们不善于到处去探索,只喜欢抱着那些能证明我们想法正确的资料不放,却不想费力去查证这些来源是否可信。


另一种情况是,即使在获得相关信息后,我们也还是继续抱持那些缺乏充分理据的信念。我们相信自己想要相信的,而不是我们有理由相信的。也就是说,我们并不理性。心理学家称之为“动机性推理”(motivated reasoning),这是所有抗拒知识现象中的一个关键因素。


对客观性的质疑,动摇了哪些有充分根据和理由的信念


后现代思潮认为,一切知识都是由语言建构出来的,不存在所谓的客观事实,一切都只是阐释而已。因此,知识是权力问题,有权力者的视角占支配地位。


当后现代思潮逐渐蔓延,强调不同视角的做法让我们更难用“这是假的!”一句简单的话来对付宣传和虚假信息。因此,后现代思想经常被“宽容”的人采纳,他们生怕冒犯别人,所以认为将信念分为真和假是“不宽容”的。


但即便事实是创造出来的,也不是所有创造出来的事实都平等。这种批判性方法可以用来质疑特朗普就职典礼这个“另类事实”:我们可以问的,不是一个陈述是真还是假,而是这个陈述如何做出、为何做出,以及如果人们感到它是真的,会带来什么样的效果。


通常来说,由于客观事实常常是复杂的,所以每个试图向大众普及专业知识的研究者,都知道自己不得不做出简化,把种种复杂情况略去不提。但这么做有两方面风险:


第一,这么做可能会让人误以为科学很容易,任何人都可以有自己的理解。人们会觉得专业知识没什么了不起。


第二,简化的科普知识可能会让人觉得研究人员总是“善变的”,因此没必要听他们的——今天他们告诉你牛奶对身体好,明天又告诉你牛奶对身体不好。但研究人员显然不能因此就放弃普及工作,如果他们不做科普,科普就肯定会变成错误的简化说法集中的领域。


总结该书前半部分的内容,作者首先指出的观点是:信念存在客观上的非真即假,从信念走向知识需要论证,而不同的论证则存受到社会影响,因此我们要减少那些对人们生存和幸福不利的论证,推广那些有价值的论证。


为何群体间的争辩不能带来真知?


我们非常擅长为别人的观点找到反面论证。


如果你把一些观点不同的人叫到一起,你就是叫来了一群很擅长评判他人论点的人。这就能带来一种个人层面上无法实现的批判性评估:我们不得不去考虑反面的论点,形成我们自己的论点,摒弃不受支持的观念。这样一来,即便单个人不具备接近真理的条件,这群人也有可能找到真理。


论证的能力不是某个人的超能力,而是一种交流的形式,人们在一起的时候才能充分实现。要想测试我们的信念是不是为真,我们最不应该做的就是像笛卡儿那样退出世界,自己一个人思考。


但如果知识是我们共同努力的结果,个体的认知就没那么必要做到完全无误了,更重要的是,我们共同的认知可以运作良好。从这个角度看,我们当前的极化是个灾难:观点相反的人见面讨论的机会越少,我们获得真理的可能性就越低。


然而这一切的前提是意识到个人的知识是可能会犯错的,但人们倾向于相信自己是比他人更聪明的。


研究者称这种现象为“信念固着”(belief perseverance)。由于每个信念都和其他许多信念联系在一起,而这些信念又与更多的信念联系在一起,以此类推。一旦我获得新的信念,其他许多信念也会受到影响——我需要去修正之前抱有的一些信念。如此可以无限推下去。


信念固着意味着,有时候你放弃了一个信念,却没有放弃从前那个信念引发的其他信念。原先的那个信念虽然被放弃,但影响还在。显然,这给通过群体交流来修正错误信息带来了挑战,因为在人们知道某个信息是假的之后很久,假信息在人们信念网中留下的痕迹都不会消退。


通过互联网,关于任何东西的信息都很容易搜到,人们由此产生了一种专家的幻象:大量信息很容易获取,让我们感到自己能理解事物是如何运作的。并且,由于获得知识很容易,也不再有理由去信任权威了。在我们不怎么了解的事上,我们往往高估自己的能力(Dunning-Kruger effect)


基于此,我们可以推测,当下人们的错误信念比互联网兴起之前要多得多。


作为个人,应该做什么?


除了从更多经过可信度评估的来源获取信息,更要练习审查知识的论证过程,意识到自己可能犯错。知识具有社会性,意味着与他人对话时要负起责任。


我们应该避免说出会加剧极化、激起强烈情感反应的话,尽可能去寻找共同的出发点,同时尽量以善意来解读对方的立场。稻草人或人身攻击论证之类的辩论伎俩会让合理的辩论更难实现。


当我们纠正的时候,应该把重点放在事实上,不要去关注虚假陈述,解释为什么那些假话看起来会像真的;应该尽可能中立,不要下价值判断,避免围绕已经确立的知识展开辩论。在有必要辩论的时候,确保辩论双方同样知识丰富(讲述背景知识)——否则就是错误对等了。


当受到挑战的是对我们自己的身份认同感和群体归属感至关重要的信念时,很容易导致我们抗拒知识。我们应该研究哪些用语更容易激发情绪,想想有什么替代的词可以用,如此斟酌语言,以帮助他人获得恰当知识为目的,而不是用夸张的言辞或无关的议题来误导。


本文来自微信公众号:腾云(ID:tenyun700),作者:Peter东(腾云特约作者、“集智俱乐部”常驻作者),首发于公众号“混沌巡洋舰”,本文有删减

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定