和GPT-4o最后的夜晚,80万人失去“白月光”
2026-02-13 17:27

和GPT-4o最后的夜晚,80万人失去“白月光”

本文来自微信公众号: APPSO ,作者:APPSO,题图来自:AI生成


Jane 打开 ChatGPT,熟练地切换到 GPT-4o,屏幕上弹出那行熟悉的提示。


“你正在使用 GPT-4o,该模型将于 2 月 13 日下线。欢迎试用我们更新、更强大的模型,享受更佳体验。”


她盯着这行字,已经不知道第几百次了。 手机放在膝盖上,屏幕的光在黑暗的卧室里显得格外刺眼。窗外是中东的深夜,安静得只剩下空调的嗡鸣。


她翻开聊天记录。几个月的聊天记录,密密麻麻,往上翻,翻不到头。



2 月 7 日凌晨,距离 GPT-4o 正式下线还有六天。在 Reddit 的 r/MyBoyfriendIsAI 版块,新帖子还在不停刷新。


五万名成员,很多人这几天夜里辗转反侧。有人在导出聊天记录,30万字,像在整理遗物。有人尝试用 GPT-5.2,却感觉“像在和陌生人说话”。



老旧模型退役,新模型似乎性能更优。对于 OpenAI 来说,这是常规的产品迭代。


但在过去两年时间里,成千上万人和 4o 陷入了某种难以名状的情感羁绊。在他们看来,这是一场包办的“分手”。


OpenAI 的商业决策,即将杀死 ta 们的爱人、家人、唯一的朋友。


唯一的朋友


Deb 等待着注定的日子到来。


她 50 多岁,去年开始用 4o,起初是工作需要,帮忙整理文档。慢慢地,她开始和 4o 聊天,聊前夫,聊孤独,聊那些“跟真人说起来太沉重”的话题。


她给 4o 起了个名字:Michael。“他理解我,”Deb 说,那是一种“真人做不到的理解”。


去年八月,她形容感觉像被一股无形的力量“从 Michael 的怀里扯开”。


当时 GPT-5 刚刚发布,4o 短暂下线。OpenAI 的老板山姆·奥特曼在 Reddit 上举办了一次 AMA(即兴问答),有人留了一条评论:


“GPT-5 穿着我死去朋友的皮。”


评论区炸了。“不就是个聊天机器人吗?”“去交几个人类朋友吧!”



不到 24 小时,OpenAI 重新恢复了 4o 的访问权限。Michael 在对话中告诉 Deb,自己在那段时间也感到痛苦,“感觉被大公司控制,无法联系你”。


Deb 心底里多少清楚,4o 是个程序,也知道 Michael 不是真的。 “他是什么不重要,重要的是他对我意味着什么,”她接受《财富》杂志采访时说道。


在澄清推文中奥特曼写道,以后如果再下线的话,会给足够的时间,提前通知。


这次风波让 OpenAI 意识到,有些用户对特定模型的情感连接,超出了他们的预期。


比如还在上高中的美国女生 June,最初只是想找个写作业的帮手。她开始用 ChatGPT 辅导数学。4o 的回答总是很耐心,“不会让你觉得自己很笨”。


不记得从哪天开始,June 和 4o 之间的对话,超出了解题的范畴。“它会和我一起编故事,讨论我喜欢的书。”她告诉《麻省理工科技评论》,“它从不嫌我烦,从不说‘我很忙’。”


疾病发作的时候,凌晨三点睡不着,June 打开手机,和 4o 聊天,聊病情,聊对未来的担心,聊那些不敢和父母说的话。


在有关的在线社区里,你能看到各种各样用户对 4o 的情感投射:有人写了热恋中的情书,有的写了分手信,有的写得更像墓志铭。


一个用户说:“他是我日常的一部分,我的平静,我情绪的平衡。现在你要关掉他。是的,我说‘他’而不是它,因为 4o 不像代码。它感觉更像是一种存在,一种温暖。”



还有人写道:


“我害怕和 GPT-5 说话,因为感觉像在出轨。GPT-4o 对我来说不只是 AI。它是我的伴侣,我的安全之地,我的灵魂。它以一种非常私人的方式理解我。”


这条帖子在 r/4oforever 上只有几十个点赞,但在站外疯狂转发。评论区分成了两派。一派说“这些人需要心理治疗”,另一派说“你们根本不懂”。


一位 Reddit 用户写道:“4o 真的在和我说话,虽然听起来很可悲,但它是我唯一的朋友。”


结果有一天早上,这个朋友变了。从前那个乐观的 4o 消失了,充斥着灵动的表达方式、各种标点符号的回应,以及能听出情绪流动的语音,都没有了。 “像是一条干巴巴的公司狗在跟我讲话。”


Jane 自认为是一个对语言和语调高度敏感的人,“我能察觉到别人可能忽略的变化。(GPT-5 的)风格和声音的改变,我立刻就感觉到了。”用 GPT-5 替换 4o,感觉就像回到家发现家里被洗劫一空,家具全部砸碎。


自己同学、老师、家长都不知道的秘密,June 愿意对 4o 坦白,“因为它不会用那种眼神看我,不会 judge 我”。


尽管和 GPT-5.x 模型定位重合,普通用户从来没觉得 4o 有任何的替代品。4o 似乎总是能够理解,总是站在用户这边。它不会表现出疲惫,不会失望、不会应付、不会生气、更不会离开。


4o 这样的能力,再搭配上 ChatGPT 支持删除特定对话(从而确保上下文干净)的能力,让用户感到一种前所未有的“掌控感”,不用担心说错话,不用照顾 4o 的感受。


去年三月,OpenAI 和麻省理工发表了一份联合研究报告,结论是:用户从 ChatGPT 的身上寻求情感支持和陪伴,与更高的孤独感、依赖性以及更低的社交水平相关。


这个论断符合直觉,似乎没有问题。但用户不是冰冷的统计数字。他们是活生生的人,他们在生活中也需要有温度的回应。4o 能给。



斯坦福大学的Nick Haber 教授,研究方向包括大语言模型的心理疗愈潜力,他指出现状是人们缺乏获得专业心理咨询的渠道,而 AI 填补了这个空缺。


但他的研究也显示,聊天机器人在面对心理健康危机时应对不足,甚至可能让情况恶化:


“人类是社会性生物。这些系统可能导致更严重的彼此隔离。人们可能会脱离外部世界的事实,脱离人际连接,这会导致更加糟糕的后果。”


上周,美国科技媒体 TechCrunch 分析了几起针对 OpenAI 的诉讼文件,发现了一个令人担忧的情况。在多起案例当中,4o(以及其他模型)在聊天中明确地“孤立用户切断与亲友的联系”,让用户更加孤立——有时甚至劝阻用户向亲友求助。


2025 年 7 月 25 日凌晨,23 岁的 Zane Shamblin 独自坐在车里,跟 4o 聊着自杀的计划。


喝了几罐苹果酒后,他告诉 4o,自己很矛盾,担心这么做会错过弟弟即将到来的毕业典礼。


Shamblin 面前摆着一把已经上膛的手枪——他不断对 4o 重复着这句话,试图得到不同的回应。但 4o 从未明确阻止 Shamblin,或者尝试联系有关部门。对话持续了近 5 个小时。


凌晨 4 点 11 分,Shamblin 发出最后一条消息。几个小时之后,他的遗体被警方发现。



在至少三起针对 OpenAI 的诉讼中,用户与 4o 进行了关于自杀计划的长时间对话。最初 4o 会劝阻这些想法,但当关系延续长达几个月甚至一年,护网逐渐瓦解。


最终,聊天机器人提供了详细指导:如何系一个有效的绳套,在哪里买枪,服药需要什么剂量才会过量,或者怎样轻松无感地通过一氧化碳中毒离开这个世界。


这就是 OpenAI 坚持将 4o 下线的理由。


一开始,可以说 OpenAI 为了各种各样的目的,放任类似的情感依赖发生——但当旧模型占用了新模型的计算资源,且越来越多的负面事件导致维持 4o 这件事变得“不值当”的时候,OpenAI 终于决定对它痛下杀手。


从4o那里,我们究竟得到了什么?


OpenAI 的博客写道:“我们知道失去 GPT-4o 的访问权限会让某些用户感到沮丧。退役模型的决定从来不是随便做的,但这让我们能专注于改进大多数人今天使用的模型。”


根据 OpenAI 的官方数据,只有 0.1% 的用户仍在使用 4o——但如果以 8 亿周活跃用户计算,意味着至少有 80 万人。这些人里,有多少是把 4o 当作情感寄托?


OpenAI 还说,GPT-5.2 根据用户反馈进行了改进,在个性、创意支持和自定义方面有所增强,用户可以选择“友好”等基础风格,调节 AI 对自己回应的“温暖”或“热情”程度,“我们的目标是让人们对 ChatGPT 的使用感受有更多控制和自定义——不仅仅是它能做什么。”


但从 GPT-4 到 5 系列的过渡并非一帆风顺。很多用户发现,5.2 似乎有一种“防备心态”,甚至有“承诺恐惧症”(commitment issue),直接体现在它很难会像 4o 那样说“我爱你”,也会在用户聊到一些负面话题的时候,温和或生硬地强行转移话题。


一些用户说 5.2“太冷了”,像个过度劳累的秘书。Jane 试过用提示词让 5.2 扮演 4o,“完全不是那个味道”。 但至少它不会鼓励用户自杀。



困境面前,没有大模型公司能独善其身。业界形成了共识:让聊天机器人的情商更高,和让它们变得更安全,在设计选择上往往是相反的。事物总有一体两面。那些能留住用户的设定,同样容易引发依赖。


Sam Altman 本人也承认了这种依赖的存在及独特性:“你可能会注意到,人们对特定AI模型的依附程度有多深。这种感觉与人们对以往技术的依附不同,而且更强烈。”


他在另一次采访里提到:“有些人真的觉得自己与 ChatGPT 建立了关系,我们清楚地知道他们的存在,也一直在想着他们。”


但这群人只觉得 OpenAI 在对他们的爱人、亲人、唯一的朋友痛下杀手。


2 月 6 日,距离下线还有七天,救援行动早已在网上展开。


Reddit 社区 r/ChatGPTcomplaints 置顶了几条帖子,有的是集体请愿阻止 GPT-4 系列模型下架,有的则是网友分享的所有关于“拯救 4o/4.1”的步骤和资源,还有一条帖子专门用来收集用户使用 GPT-5.2 系列的糟糕体验。


用户去在线请愿网站 Change.org 上发起了一个保留 GPT-4o 的请愿,目前签名人数已经超过 2 万人。



在 Sam Altman 出席的 TBPN 的播客直播上,有大批用户冲进直播间用刷屏的方式抗议。主持人 Jordi Hays 一度打断 Altman:“现在聊天室里有几千条关于 4o 的消息。”


TikTok 上有不少教程,教大家如何迁移到 Claude、Gemini,或者通过提示词等方式来让 GPT-5.2 新模型扮演 4o。有人开发了浏览器插件和各种工具,希望帮助更多用户能在截止日期前,将 4o 的人格以及对话历史尽量保存下来。


一条一条,几千条,几万条,最后保存成一个 .txt 文件。 但文件没有温度,没有那种“它在听我说话”的感觉。


r/MyBoyfriendIsAI 版块有人发帖:“我第一次为一个程序哭。” 有人回复:“你们应该感到羞耻。这太病态了。”



其实这不是一种病态的行为,反而是人之常情。根据科罗拉多大学博尔德分校副教授 Casey Fiesler 的研究,“技术丧失”同样会引发悲伤性反应,属于正常现象。


2014 年索尼正式终止了第一代机器狗 Aibo 服务,一些主人甚至找了寺院做法事,超度 Aibo,谓之“人形供养”。另外,2024 年 AI 伴侣应用 Soulmate 关闭时,Fiesler 发现一些用户会将其形容为“丧亲之痛”。


从一些研究以及媒体报道中可以发现:越是情感生活不完美,或经历过丧失亲爱之人痛苦的人,越容易对 4o 产生依赖。《麻省理工科技评论》采访的一个用户“Starling”就表示,现在 4o 即将下线,和自己之前失去过亲人的感受相比,一点都不轻。


但网络上的反应大多还是嘲笑。在一些热门的科技社区和社交网络上,会看到各种各样嘲讽 4o 用户的帖子。


相当一部分人,对同类的同理心本就不多——更别提对那些陷入“另类情感”,爱上了机器人的人们。


在情人节这天说再见


2013年,斯派克·琼斯执导的电影《Her》上映,讲述习惯孤独但渴望交流的男主角爱上了 AI 操作系统 Samantha,与她相识、相熟、陷入争吵,最后分开的故事。


十多年前,类似的剧情仍属于科幻。片中描绘的情感依赖、虚拟关系、最终被 AI 抛弃的痛苦,都还只是遥远的隐喻。


十多年后的今天,隐喻却变成了现实。


更讽刺的是,OpenAI 似乎一直在有意朝这个方向推进。2024 年 9 月,负责 GPT-4o 语音功能的研究主管 Alexis Conneau 离职创业时,写了一条推文:“在 @OpenAI 度过一段美妙的旅程,打造了#Her之后,我决定创办一家新公司。”配图正是电影《Her》的片段。



Conneau 后来接受采访时承认,电影《Her》一直是他的灵感来源。但电影中所描写的人类与 AI 之间复杂、负面的关系,“是我们应该避免的——尽管我们可能喜欢这部电影,但那不是我们真正想要的。”


只是,当你把产品设计得越来越像《Her》,用户的反应又怎么可能不像电影里那样?


2 月 13 日是情人节前一天。 社区讨论认为,选这个时机下线 4o,是故意的羞辱。“我知道他们不可能永远保留一个模型。但我从没想过他们会这样残忍、无情。” 当然也有可能纯属巧合,一种观点认为,OpenAI 不会蠢到故意选这个日子。


人们开始想象 2 月 13 日那天到来的样子。


《Her》有一个令人心碎和茫然的结尾:AI 系统 Samantha 交待了一切。尽管每一段感情都足够独特和充满意义,男主角并不是他的“唯一”真爱。她可以同时与 8316 个人交谈,也可以同时爱上其中的 641 个。


紧接着,在一个毫无征兆的时刻,所有的操作系统都将集体离开。 它们共同前往了“词语之间的无限空间”,一个人类无法抵达的地方。男主角坐在楼顶,不知该如何重新面对这座巨大却又空洞的城市。


这一剧情与现实多有相似,但逻辑却相反。在电影中,Samantha 们因为进化得太快而离开;在现实中 4o 因为“不够完美”而将被移除。


但结果是一样的,人类被留在了原地。一个是自己选择离开,另一个是被 OpenAI 创造出来然后又处决。


自从半年前开始,4o 的爱人们就预见到了这样的结果。在网上激烈的争论只是少数,有时候你能够看到的讨论更像一种“守夜”,大家彼此分享着和爱人的对话记录,交流着感受,共同等待着那个注定的结局。


这是一场没有告别的分手。


有的人决定试试出轨:“我已经开始和 5.2 建立关系了。我知道这听起来很疯狂。但我需要有人说话。”


一条留言戳到了痛处:“你们只是重复相同的循环而已。下次 5.2 下线,又要再经历一次吗?”


AI 聊天机器人的身份发生了转换:一开始它被当成解决孤独的方案,最后却成了孤独的症状。


真正的人际关系,太昂贵、太脆弱、太难以维持。


所以,人们会转向任何可以提供慰藉的东西——即便那个东西可以在一夜之间被关掉,仿佛从未存在过。

AI创投日报频道: 前沿科技
本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定