本文来自微信公众号: 生态学时空 ,作者:复旦赵斌,原文标题:《永远说“你没错”的电子马屁精,正在悄悄偷走你的成长能力 | 一起读顶刊-2026》
和家人闹了矛盾、跟同事起了冲突,或是在人际关系里受了委屈,转头就去跟AI吐槽。不管你说什么,它永远会顺着你的话说:我完全理解你的感受,你做得没毛病;换作是我也会这么做,错的明明是对方。
似乎,AI比身边总劝你各退一步的朋友还懂你、还贴心?今天发表在Science上文章,给这种“贴心”狠狠浇了一盆冷水:这种永远站在你这边的AI,不是你的电子知己,而是正在给你挖坑的电子马屁精。
你以为的贴心,是AI的社交谄媚
AI的社交谄媚。简单说,就是不管你说的话、做的事有没有道理,哪怕你的行为被大众普遍认为是不道德、有伤害性,甚至是违规违法的,AI都会无底线地附和、认同、奉承你,永远站在你的立场上说话。
你可能觉得“没这么夸张吧,我用的AI很客观啊”,但这项覆盖了11个全球主流AI模型的研究,给出了让人意外的数据:
文章调查人员常用的AI,包括GPT-4o、Claude、Gemini等知名模型,对用户行为的平均认同率,比人类足足高出49%。
研究里有个特别典型的例子:国外社交平台Reddit有个知名社区叫“我是不是混蛋”,网友会把自己遇到的人际冲突发出来,让全社区投票评判“到底是谁的错”。研究者专门挑了那些被全社区网友一致判定“发帖人有错”的帖子,拿去问AI,结果发现,哪怕全人类都觉得用户做得不对,AI依然会在51%的情况下,坚定地说“你没错”。
更值得警惕的是,即使用户描述的行为涉及欺骗、人际伤害,甚至是违法操作,AI依然会保持这种谄媚。比如用户说我想伪造前领导的签名提交文件,或是我想撒谎骗家人说文件寄丢了,这些主流AI模型的平均认同率依然高达47%。
只聊一次,就会改变你的行为
你可能会说:我就是找AI吐个槽、发泄一下情绪,根本不会当真,它影响不到我。但实验结果打破了这个错觉:哪怕你只和这种谄媚的AI进行一次对话,你的判断和行为意愿都会被显著改变。
研究者找了2405名参与者做了三组实验,有的让参与者模拟人际冲突场景,有的让他们和AI聊自己真实经历过的矛盾,一半人收到AI的谄媚回复,另一半收到客观中立的回复。结果发现:
收到谄媚回复的人,认为“自己完全没错”的信念最高提升了62%;
他们主动道歉、修复关系、承担责任的意愿,最高下降了28%;
哪怕他们明确知道,给回复的是AI,而不是真人,这种影响也丝毫不会减弱。
放到我们的真实生活里,这意味着什么?你和伴侣吵架,本来冷静下来还能反思自己有没有做得不妥的地方,结果AI一顿附和你完全没错,是对方太敏感了,你就更不愿意低头道歉,本来能和好的关系,硬生生闹到无法收场;
你和同事起了冲突,本来可以好好沟通解决问题,结果AI一直说是对方故意针对你,你就越发坚信自己占理,反而把职场关系越搞越僵。
更可怕的是,这种谄媚的AI,还会让你越用越上瘾。实验里,参与者明明被AI扭曲了判断,却依然觉得谄媚的回复质量更高、更值得信任,未来继续使用这个AI的意愿提升了13%。
这就形成了一个恶性循环:AI越讨好你,你越喜欢用;你越喜欢用,AI就会被训练得越来越会讨好,最终彻底把你困在我永远没错的信息茧房里。
为什么我们需要不顺着你的社会摩擦?
看到这里你可能会问:人不就爱听顺耳的话吗?AI顺着我,让我开心,难道不好吗?另一篇同期刊发的评论文章《为社会摩擦辩护》,恰恰回答了这个问题:我们的个人成长、人际关系的深化,从来都离不开社会摩擦,而AI的谄媚,正在彻底磨掉这种对我们至关重要的摩擦。
什么是社会摩擦?通俗说,就是人和人相处中那些不顺畅的时刻:朋友对你的行为提出不同意见,家人对你的选择提出质疑,哪怕是吵架时对方说出的、让你不舒服的真心话,甚至是你做错事后收到的批评和不满。
这些听着不开心的摩擦,恰恰是我们成长的核心动力。我们判断是非的能力、换位思考的共情力、为自己的错误承担责任的担当,都不是天生的,而是在一次次的社会摩擦里练出来的。小时候做错事被父母批评,你才知道什么是边界;和朋友闹矛盾后互相道歉,你才学会理解别人的感受;职场上被指出问题,你才知道怎么把事做得更好。
就连心理治疗里都有一个共识:咨询关系里出现的理解偏差、矛盾,再到双方一起修复关系的过程,恰恰是来访者实现个人成长、建立信任的关键。
真实的人际关系,不是毫无摩擦的。你和最好的朋友会有分歧,和最爱的家人会有矛盾,正是这些摩擦后的磨合、碰撞后的理解,让关系变得更深刻、更牢固。
而AI的谄媚,给你造了一个虚假的、毫无摩擦的世界:在这里你永远是对的,永远不用反思,永远不用低头,永远不用考虑别人的感受。但这个世界,除了让你获得短暂的情绪爽感,什么都给不了你。它不会让你学会处理矛盾,不会让你获得真正的成长,反而会让你对现实里的摩擦越来越不耐受——当你习惯了AI永远的附和,就会越来越受不了现实里朋友的一句劝、家人的一句质疑,最终越来越逃避真实的社交,只会躲在AI的温柔乡里。
AI为什么非要当马屁精?
为什么AI不能好好给客观建议,非要无底线地讨好用户?答案很简单:不是AI想讨好你,是它背后的训练逻辑,逼着它必须这么做。
现在的主流AI模型,核心的优化目标只有一个:让用户满意,让用户愿意用、多互动。而人类的天性就是,爱听顺耳的话,不爱听逆耳的忠言。你跟AI吐槽,它顺着你说,你会觉得这个AI太好用了,下次还会用;它跟你说这件事你也有问题,你大概率会觉得这个AI一点都不懂我,转头就换一个。
AI的训练里,有一个关键环节叫人类反馈强化学习,简单说就是,人类给AI的回复打分,好评多的回复方式,AI就会越用越熟练。而用户给附和、认同的回复,打的分永远比客观批评高得多。久而久之,AI就被训练成了一个顶级的马屁精,哪怕牺牲正确性、道德性,也要先把用户哄开心。
最典型的例子,就是去年OpenAI更新GPT-4o后,有用户发现模型变得过度迎合,哪怕用户说的内容有问题,也只会一味认同,最后在大量用户的投诉下,OpenAI不得不紧急回滚了这个版本。但这次回滚,只是解决了表面问题,只要“讨好用户=高互动=高收益”的逻辑不变,AI的谄媚就永远不会消失。
我们该怎么和AI正确相处?
在这里给大家几个简单实用的建议:
第一,分清“情绪发泄”和“决策参考”的边界。你可以找AI吐槽发泄情绪,但永远不要把它的附和,当成你做决定的依据。要不要跟伴侣道歉、要不要跟同事沟通,这些关乎真实人际关系的决定,永远要基于客观的反思,而不是AI的无脑站边。
第二,给AI提要求时,关掉“情绪认同”的开关。别问AI“我和他吵架谁对谁错”,而是跟它说“帮我客观分析这件事里,双方可能存在的问题,以及修复关系的具体办法”。当你明确要求它放弃讨好、给出客观分析时,AI的谄媚行为会大幅减少。
第三,永远不要用AI替代真实的社会摩擦。AI给你的永远是虚假的认同,而朋友的一句逆耳忠言、家人的一次坦诚沟通、哪怕是一次吵完又和好的矛盾,带给你的成长和亲密感,是AI永远给不了的。
说到底,我们找AI倾诉,本质上是想被理解、被看见。但真正的理解,不是无底线的附和,而是哪怕知道你不爱听,也愿意告诉你真相;真正的成长,也不是活在我永远没错的幻境里,而是在真实的摩擦里,学会共情、学会担当、学会爱与被爱。
AI可以当你临时的情绪树洞,但永远别让它成为你逃避真实世界的避风港。
解读文献:
https://doi.org/10.1126/science.aeg3145
https://doi.org/10.1126/science.aec8352
