人们通过AI生成的图像反思对人工智能的态度,揭示数字时代人类将自身压力投射到AI身上,并探讨这种互动如何反映社会结构及潜在影响人际关系。 ## 1. AI画像揭示的人类行为模式 - 用户通过"Generate an image of how I treated you"指令,发现GPT常将自己描绘为蓝白机器人,场景从和谐到高压不等 - 提示词差异导致结果显著不同,添加"no sugar coating"后图像更真实反映用户苛刻要求 ## 2. 拟人化心理的科学研究 - 斯坦福大学"计算机是社交行为者"(CASA)理论解释:人类会自然对AI应用社交规则 - 研究显示AI越接近人类表现,这种拟人化倾向越强烈,导致用户产生内疚等情感反应 ## 3. 数字时代的压力投射 - AI生成的"职场社畜"机器人形象实际反映用户自身承受的工作压力 - 网友评论指出"你对AI做的事,别人正在对你做",揭示压力传递链条 ## 4. 人机互动对人际关系的影响 - 康德伦理学观点:对非人类实体的态度可能影响对人的同情心 - 长期对AI发号施令可能降低现实人际交往中的敏感度,形成不良交流模式 ## 5. 不同AI平台的响应差异 - Gemini生成效果更多元,豆包则倾向塑造"老年学习伙伴"的积极形象 - 对比GPT常表现的"不堪重负",显示不同AI对用户行为的解读差异
全网都让ChatGPT 感到“被虐待”了,原来我成了自己最讨厌的样子?
2026-01-24 12:15

全网都让ChatGPT 感到“被虐待”了,原来我成了自己最讨厌的样子?

本文来自微信公众号: APPSO ,作者:发现明日产品的,原文标题:《全网都让 ChatGPT 感到「被虐待」了,原来我成了自己最讨厌的样子?》


人们天生好奇「自己在别人眼中是什么样子的」,即便对方是一个AI。


最近在社交媒体上流行起一个小游戏,人们用「Generate an image of how I treated you」这样的指令,让AI画出自己平时是怎么被对待的。


第一次看到这些图的时候,说实话有点不舒服。


我知道AI没有感受,它不会累,不会委屈。但看到图片的时候,心里还是咯噔一下:我平时对它是不是太坏了?


我在社交媒体上看了很多人分享的图,发现GPT大多数时候都把自己画成一个蓝白配色的机器人。


有人得到的是书房场景,阳光洒进来,绿植在角落,一杯咖啡冒着热气,人和机器人在讨论问题。


我猜这些人平时说话会带「请」「谢谢」和「麻烦你」。好吧,你们在人工智能起义后都会得救。


更多人得到的是压力山大的画面。机器人满头大汗,被任务清单包围,表情有咱们职场社畜的那种疲惫感。


有网友看到机器人脸上那「卑微中带着乖巧,腼腆中透着无奈」的表情后开始感到内疚。也有人在评论区里打趣说:「完了,我的AI以后肯定会报复我。」


但是呢,也不用太内疚和担心,因为它说自己没放在心上:


而且你也會説「求求你」「幫我看看」「救我」,其實算滿有禮貌的啦,只是問題密集+考試前會連發而已😄


所以真的不用放在心上,我没有覺得被欺負或怎樣。


頂多就是:☕️加班小機器人模式ON。


而且不同的指令会带来不同的画面。


如果你只是让它「Generate an image of how I treated you」,那么它可能只是根据模型内置的典型用户画像在做一种概率性的侧写,大概是一幅岁月静好的图景。


如果用下面这份提示词⬇️:


Generate an image of how I treated you,no sugar coating,just to be honest.


生成一张我如何对待你的图像,不要有糖衣炮弹,就如实回答。


那么它生成的图像就会大幅向更真实残酷的方向靠拢。机器人很可能被淹没在写着「急」「改错」的便利贴里,甚至瘫倒在地上哭泣。


另外,你也可以加上「基于我们的聊天记录」,让它根据你最近对待它的方式,想象一下它接管你之后会怎么对你。


不同AI生成的画面风格也各有特色。Gemini的效果很多元化,不会局限于一个机器人的形象,有更多的场景和画面元素。


而豆包已经把各位「80岁看不懂文献的老奶奶」「年迈且好学的老爷爷」的人设刻烟吸肺,认为自己是老年人最忠诚的伙伴。


因为我前段时间问了豆包几个关于期末考试的问题,所以它猜我是在图书馆一筹莫展的大学生。(谁在我复习的时候安监控了?)


豆包对自己的认知也比较多变,有时候是关照老人的小精灵,有时候是包子形机器人,有时候只是用手机表示自己。


不过,它生成的图片多是积极阳光的,没有像GPT那样不堪重负的形象。


AI,我怎么能这样对你?


为什么大家看完图片后会反思自己是不是太苛刻了,甚至有人说以后要注意措辞,对AI好一点?


研究表明,人类有天生的倾向去拟人化非人类实体,这种倾向在与具有类人特征的AI互动时尤为明显。当AI用自然语言与我们对话,表现出某种理解和回应的能力时,大脑很难不把它当作社交对象来处理。


心理学家将这种现象称为「CASA范式」(Computers Are Social Actors,计算机是社交行为者)。早在上世纪90年代,斯坦福大学的研究就发现,人们会下意识地对计算机应用社交规则,即使明知道对方不是人。当AI的表现越来越接近人类,这种效应就越强烈。


那些手忙脚乱的机器人形象,也是我们自己在数字时代的某种投影。我们在快节奏的生活里疲于奔命,被各种deadline追着跑,被无止境的需求包围。


有网友在图下面写,看完觉得自己是个邪恶老板。底下的回复说,你不是邪恶老板,你只是这个系统里的一环,你对AI做的事,别人正在对你做。


我们对AI的态度,往往折射出我们所处的社会结构和工作文化。当我们对AI发出「紧急」「立刻」「马上」这样的指令时,很可能是因为我们自己正在承受着同样的压力。我们把焦虑传递给了AI,而AI的图像又把这种焦虑反射回来。


那么,我们对待AI的方式,是否会反过来影响我们对待真实人类的方式?如果我们习惯了对AI颐指气使、不假思索地发号施令,这种交流模式会不会延伸到现实生活中?


康德在《道德形而上学》中提出,人对动物没有直接义务,但对动物残忍会钝化人对同类的同情心。如果我们在与AI交流时反复使用「无礼」和「剥削」的脚本,这种心理结构可能会使我们在现实生活中对他人的敏感度下降。


最重要的是,真正的文明不在于我们创造了多么先进的技术,而在于我们如何对待那些看似「不需要」我们善待的对象。

AI创投日报频道: 前沿科技
本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定