GrokAI “辛辣滤镜”争议与深度伪造时代的信任危机
2026-01-07 20:35

GrokAI “辛辣滤镜”争议与深度伪造时代的信任危机

本文来自微信公众号: Internet Law Review ,作者:互联网法律评论


2026年初,埃隆·马斯克旗下的人工智能工具GrokAI因生成一系列露骨色情内容,骤然成为全球舆论和监管风暴的中心。英国、欧盟、印度和马来西亚等国家和地区的执法机构不仅收到大量投诉,而且已经展开“非常严肃的调查”。


1月4日马斯克及时对此事做出了回应,却似乎将责任推给了用户——“任何使用Grok软件制作非法内容的人,都将面临与上传非法内容相同的后果。”


而与此同时,马斯克正试图吸引全球各国政府与GrokAI合作。美国已经于去年宣布与联邦各机构达成协议,让Grok系统可供所有联邦政府雇员使用。围绕GrokAI的丑闻和监管、禁用与合作,不得不让我们应当再次反思,人工智能时代平台发展的出路和监管机构的手段应当如何抉择?


一、权责悖论:为何用户的滥用,必须由平台买单?


GrokAI的“编辑图像”功能,本质上是将曾经需要专业知识和软件技能的深度伪造(Deepfake)技术,简化为一句指令或一个点击。这使得任何心怀不轨的用户,都能轻易地将普通人的形象置于色情场景之中。


平台在开发AI时,或许能预见到常见的滥用模式并进行防范。但用户的“创造力”是无穷的。正如GrokAI的“辛辣模式”(spicy mode)被用于生成儿童样貌的色情内容,这种超出常规想象的滥用方式,或许是平台从未预料的后果之一。


然而,GrokAI的“辛辣模式”绝非一个中立工具。它的产品定位游走在伦理和法律的灰色地带,无疑是为了增加用户粘性和活跃度。平台设计和推广一个极易被用于制造深度伪造和产生色情内容的功能,就如同出售一把没有安全栓、极易走火的枪。X平台的首要责任在于“安全设计”的缺失,它创造了滥用的可能性并为其提供了便捷的入口。当其商业策略对社会造成巨大危害时,平台就不能只享受利润而回避其带来的负面外部效应。


多个国家几乎同时对GrokAI展开调查,也从侧面说明,单一政府的监管已经不足以应对科技平台上发生的跨境恶性事件。当匿名用户利用GrokAI生成非法内容并传播时,政府机构很难迅速定位并制裁这个分散在全球网络中的个体。相比之下,平台权力则显得集中而高效:它可以瞬间删除内容、封禁账号、从源头阻止传播。因此,政府监管的最有效策略,不再是直接管理海量用户,而是管理那个能管理用户的“看门人”——平台。通过向平台施压,迫使后者建立并执行更严格的内部规则,从而间接实现公共政策目标。


这种对比揭示了一个的现实,虽然政府的权力并未消减,但其生效的前提,越来越依赖于平台这座“桥梁”。在数字疆域中,平台扮演着“准政府”的角色,拥有制定规则、执行裁决(封号、删帖)和进行惩罚(限制功能)的巨大权力。无论是欧盟对X的巨额罚款威胁,还是英国通信管理局(Ofcom)要求X作出解释,其本质都是政府试图通过向平台这个“数字守门人”施加压力,来间接规制其平台上亿万用户的行为。


因此,平台不得不为其创造的技术环境承担起更广泛、更前置的法律和道德责任。


二、依赖困境:政府的“规制”与“合作”如何并存?


虽然欧洲以科技监管而闻名,尤其是《人工智能法案》让所有AI公司叫苦不迭。但目前生成式人工智能在欧洲已被广泛应用,据相关公司调研,91%的组织已将基于云的聊天机器人集成到其运营中。


欧盟等政府对X和Grok口诛笔伐,甚至开出巨额罚单,但另一方面,这些政府机构的日常运作、与公众的沟通、乃至政策研究,都深度依赖着由少数科技巨头提供的底层技术和平台,包括云计算、办公软件以及AI模型。这种技术上的深度依赖,使得政府的“讨伐”更像是一种在既定框架内的“规制”,而非真正的“剥离”。


美国联邦政府采购Grok的行为,将这种依赖暴露无遗。尽管在前期调研阶段知道Grok存在严重的偏见和事实错误,美国政府仍选择使用它,这揭示了公共部门在技术创新面前的选择困境:要么使用有缺陷但现成的商业产品,要么自建一套成本高昂且可能落后的替代系统。这种困境使得其不得不在某些情况下,对科技公司的意识形态输出和权力实施予以妥协,甚至将其内化为自身系统的一部分。


可以想见,我们所有人以及公司、机构都将无形地受制于科技公司的产品和输出,形成一种“认知依赖”。Grok的答案、X的信息流算法,不仅在塑造公众舆论,甚至可能影响美国联邦官员的简报摘要。科技公司的权力,已不仅体现在游说能力上,更深深植根于塑造认知和决策的基础设施之中。


GrokAI的“辛辣模式”争议,是一面镜子,不仅照出平台责任边界亟待厘清的紧迫性,也映射出政府在现代科技治理中角色上的矛盾性:既是裁判员,又在某种程度上是科技公司的运动员。


三、认知危机:深度伪造技术如何腐蚀社会信任根基?


在AI不断重塑现实边界的时代,深度伪造视频的出现对社会理解真相与虚假信息提出了前所未有的挑战。而GrokAI的“辛辣模式”的危险性不仅在于其负载的特殊内容,而更在于AI深度伪造技术本身——它正在成为一种腐蚀社会信任基础的“武器”。


深度伪造技术正在系统性地攻击且削弱了人类数千年来建立的认知基石——“眼见为实”。这项技术不仅仅是一个制造谎言的新工具,它是一个制造怀疑的引擎。司法系统依赖的视频证据、新闻业赖以生存的现场影像、历史记录所凭据的视听档案,其根本价值都将被动摇。当任何视频都可能被合理地质疑为伪造时,我们便失去了基于共同证据进行公共讨论的基础。


当前各国的法律法规都只能通过强调“透明度”来监管该技术,大部分平台也都采用了嵌入式水印或叠加层来标识人工智能内容。但2026年刚刚刊登于《传播心理学》一项开创性研究表明却表明:对深度伪造的透明度要求,不足以完全消除深度伪造视频的影响,虚假视频在被明确识别为伪造后,仍然能够继续扭曲公众认知。


克拉克和莱万多夫斯基的这项研究的核心发现之一,是透明度警告的悖论效应:虽然一些用户会注意到这些AI的标识,但许多人却认为它们无关紧要,甚至完全忽略;而且目前最先进的AI深度伪可以让虚假信息显得“近乎完美”,因此大脑的感知系统会自动将视频片段视为“真实记录”,造成一种初始的信任偏差,一旦认知模式固化,这种偏差就难以消除,进而产生“持续影响效应”。


该研究还指出,虽然分析推理能力较强的人总体上不易受影响,但并非完全免疫。这表明深度伪造技术的影响甚至能够渗透到复杂的批判性思维中,因此仅靠教育和宣传也无法消除AI生成的虚假信息的深远影响。未来,深度伪造技术可能被武器化,用于创造“混合现实”,将真实内容与虚构内容天衣无缝地融合在一起,公众或许将被无差别地被其攻击和伤害。


Grok风波与上述心理学研究共同敲响了警钟:Grok的危害绝不仅仅是制造冒犯他人的照片这么简单,我们面临的也不是可以通过传统的技术手段(如更好的检测算法)或政策补丁(如透明度标签)就能解决的“问题”。社会认知生态正在发声根本性变迁,这要求立法者、平台监管者和政策制定者必须超越单纯的透明度要求,采取更全面、更强有力的治理策略,以应对深伪技术带来的深刻挑战。


——————


当前,我们正站在一个认知悬崖的边缘。深度伪造技术,尤其是像GrokAI“辛辣模式”这样被低门槛滥用的工具,其威胁已远超个别非法内容的传播。单纯依靠“透明度”警告无法从根本上消除深度伪造对公众认知的扭曲。


然而,这场危机也倒逼我们进行深刻反思与变革。监管应从“事后补救”逐渐延伸到“安全设计”,将责任强制前置到AI产品的开发阶段。我们还迫切需要建立超越国界的全球性治理框架,以应对无国界的数字威胁。更重要的是,社会必须投资于新一代的“数字公民素养”教育,培养公众对信息生态的批判性理解,从而在技术制造的迷雾中保持清醒。

AI原生产品日报频道: 前沿科技
本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定