AI通过刻意模仿人类的不完美(如摄影瑕疵、聊天犹豫)来增强真实感,这种"主动变差"策略标志着其从技术拟真转向心理操控,模糊了人机界限并引发信任危机。 ## 1. AI图像从"完美"到"刻意瑕疵"的进化 早期AI图像因过度平滑/对称被识破,如今Gemini等模型主动模仿手机摄影缺陷(噪点、过度锐化),通过渲染"手机味"画面绕过恐怖谷效应。关键转折:AI不再追求物理真实,而是模拟人类被技术驯化的认知方式。 ## 2. 视频生成利用媒介缺陷掩盖虚构 Sora 2/Veo 3生成颗粒感监控画质视频,其核心策略是:用低画质媒介特性(如传感器噪点)转移对内容真实性的质疑。The Verge评价此为"巧妙绕过恐怖谷"的战术升级。 ## 3. 聊天机器人表演"人性缺陷"获取信任 现代AI聊天时故意展现犹豫/共情/词不达意,比绝对理性更易建立亲近感。重要结论:当AI展示不完美时,本质是能力展示而非能力缺陷——它已掌握"示弱"作为社交工具。 ## 4. 真实感源于心理暗示而非技术参数 人类判断真实的标准本质是主观局限(如视觉/听觉阈值)。AI通过精准设计"信任阈值内的不完美"(如手机摄影缺陷、语言迟疑),比追求零差错更能制造真实幻觉。最终危险在于:人类将更难区分AI的"表演"与真实能力边界。
当AI 开始故意变差,真正的危险就降临了
2025-12-30 20:42

当AI 开始故意变差,真正的危险就降临了

本文来自微信公众号: 果壳 ,作者:糕级冻雾,编辑:沈知涵,原文标题:《当 AI 开始故意变差,真正的危险就降临了》


还记得几年前人类第一次见到AI生图时的反应吗?


先是靠判断违背物理常识的“一眼假”,比如生成的手指个数不对又变形,生成的人类永远吃不好面条。


随着AI发生常识性错误在一点点减少,它又走向另一个“极端”,生成的人像皮肤太光滑、光线太扁平、构图太端正,乍一看像P过的影楼写真。“这不像是人拍的”,对此,我们还能发出经验主义的警觉。


但是,朋友们,在这个人机难辨的时代,任何识别经验都会被随时淘汰。


新的AI图像模型开始主动往“差一点”的方向走了。它们学会模仿手机摄影出现的不完美的质感:对比度不高、锐化过头、阴影被硬生生拉亮、构图带点随意,甚至有点糊。


也就是说,AI不再追求生成“最好的照片”,而是试着生成“你会拍出来的那种照片”。而正是这些“瑕疵”,让图像突然变得可信了。


这个变化节点透露出一丝更加“危险”的气息,AI正在学习如何显得不那么完美,就像人类一样。


AI:我装的


真实世界从来不是高清、完美、对称、干净的。我们之所以相信一张照片是真的,并不是因为它好看,而是因为它符合我们记录现实的方式。


早期的AI图像,它们最大的破绽是一种诡异的“完美”。图像每一颗像素都太滑、太亮、太干净了,就像是把“磨皮”开到最大后又抹了层油和蜡,人像宛如蜡像,不生动。


原因很简单,当你输入“一张桌子”,AI会生成一个“在任何评判标准下都符合的结果”,它大概率是一张“教科书图”。而且,从数据来源来说,往往被反复标注和引用的图片都是这种“标准图”,模型早期的核心逻辑是在真实中“求平均值”,AI会调取它数据库里见过的几十亿张桌子,然后取一个中间值,那种随手一拍家里的脏乱桌子图在这种巨量的平均之下被“稀释”了。


而今天训练模型的人在教AI“搞砸”。


以最近Gemini里集成的Nano Banana为例。它生成的图像里,有着明显的过度锐化,对比度拉得死高,暗部细节丢失,甚至还有那种因为传感器太小而产生的特有噪点。


我们知道因为手机能承载的传感器很小,为了弥补光学上的先天不足,手机厂商会使用多帧合成算法,“暴力”地提升阴影亮度,锐化边缘以制造“清晰”的假象。


久而久之,我们的眼睛被手机厂商驯化得习惯了“手机味儿”,当AI开始模仿这种物理光学上的局限性时,其实是模仿人类的被上一代机器“驯化”后的认知方式。


当AI图像不再试图渲染物理世界真实的光影,转而去渲染“手机摄像头里的世界”,用The Verge的评论,这叫“AI学会了巧妙地绕过恐怖谷”。


另外,Sora 2和Veo 3也开始生成那种颗粒感十足的“监控画质”视频,它们利用了的一个逻辑:利用媒介的低劣,来掩盖内容的虚构。


而这种“主动变差”的策略,并不只发生在图像生成模型上。


“绕过恐怖谷,巧妙地”


你有没有发现,聊天机器人也变了?


从一开始那个“高智力低情商”的“伪人”——说话滴水不漏,姿态居高临下,态度理性生硬,变得会犹豫、会共情、主动暴露脆弱。


有限的理性,偶尔的词不达意,语气中不可避免地透露出个人情绪......这些才是正常人类的表达。


所以当一个AI“有意”展露出这些,反而比一个绝对理性、稳定、客观中立的“聊天对象”更能拉近距离感,对此我们下意识的反应是,“挺有个性”、“完了,它好像真的在思考”。


这些“障眼法”背后是一个关键的问题,当AI展示不完美时,它到底是在暴露能力的边界?还是在展示能力本身?答案恐怕是后者。


它在判断“什么样的结果更容易被人类接受”:脆弱、迟疑、模糊、噪点?这些过去被视为缺陷的东西,正在变成AI博取人类信任的表演策略。


这就像我们在读书时期偶尔听说的会控分考试的天才学生。


当一个人,随时决定要不要示弱,不是他真的被攻击到了,而是示弱被他当作一种社交能力。AI也是如此,当它表现出犹豫,并不意味着它不知道答案,而是知道这种表达更容易让人卸下防备。


AI开始理解,人类对“像人”的判断,本身就建立在不完美之上。真实感的来源不是堆参数达到的技术指标,而是一种心理暗示和心理反馈。


事实证明,一直以来我们判断真实与否本身就带着人类的局限。


就像人类看不到红外与紫外光,听不到20Hz以下的低频,我们感知到的“现实”,本就只是一个被生理和心理共同裁剪过的版本。


从这一点上来说,比剥离出AI生成但符合人类预期的虚假更难的是,逼迫人类承认判断主观和认知局限。


AI绕过恐怖谷的新策略,不是全力拟真,追求零差错,而是精准地设计出恰好落在我们信任阈值之内的“真实”。

AI创投日报频道: 前沿科技
本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定