AI通过不断切换叙事获取资源与权力,但其过度成功的叙事正引发合法性危机——承诺的公共收益未兑现,而社会成本与分配问题被回避,导致公众信任流失。 ## 1. 叙事作为AI扩张的核心工具 - AI产业通过制造"颠覆谷歌""灭绝风险""神迹救世"等矛盾叙事,驱动资本流动与政策倾斜。 - 每次叙事切换(如从技术民主化转向核风险警告)都带来新资源,同时掩盖真实代价(如就业冲击、版权问题)。 ## 2. 末日叙事与权力垄断的悖论 - OpenAI等公司通过"AI灭绝人类"的警告,将自身塑造为风险解释者与规则制定者,获得超然权威。 - 该叙事将监管专业门槛抬高,却边缘化更迫切的现实问题:2025年Anthropic研究显示,22-25岁年轻人入职高暴露职业的比率已放缓。 ## 3. 神奇演示与真实代价的脱节 - Sora等产品的魔法式演示推动资本狂热(2024年Klarna用AI客服裁减数百岗位),但实际引发信任危机与劳动贬值。 - 视频深伪成本降低、原创内容压价等副作用,被"先接受再处理"的逻辑合理化。 ## 4. 基础设施竞赛与地方抵抗 - 2026年OpenAI"星门计划"暴露算力需求:1个AI数据中心耗电相当于85万户家庭,引发水资源与电网争夺。 - 国家层面的"AI竞赛"叙事与社区现实利益冲突,导致合法性流失。 ## 5. 乌托邦叙事回避分配难题 - "后稀缺社会"承诺(如哈萨比斯称十年内治愈疾病)掩盖当下不平等,但回避数据、算力等关键资源的控制权问题。 - 马斯克"全民高收入"设想未解决:若初级岗位消失(微软预测2028年13亿AI代理上岗),年轻人将失去职业成长阶梯。 **核心反噬点**:当叙事要求公众忍受就业冲击、资源挤占等现实成本,却仅提供遥远丰裕承诺时,暴力事件(如奥特曼遇袭)与监管调查(佛罗里达州起诉OpenAI)成为合法性危机的具象化表现。
AI叙事,正在反噬其合法性吗
2026-04-14 09:13

AI叙事,正在反噬其合法性吗

本文来自微信公众号: 未尽研究 ,作者:未尽研究


AI今天不是制造的希望太少,而是制造的希望太多、太快、太大,远远超过了它愿意立刻承担的责任。


ChatGPT之后,AI产业最惊人的地方,现在看来不只是模型能力的跃迁,而是它制造叙事、切换叙事、并把不同叙事嫁接成一整套社会情绪机器的能力。AI已经被叙事放大成为社会心理、资本配置、国家政策与公共想象力的中心。


但叙事并不是附属品。叙事本身,决定了资本往哪里流,监管怎么写,社会在害怕什么,也决定了在一个资本主义的世界里,AI如何为自己的权力扩张寻找道德语言。


换句话说,ChatGPT之后AI的几年,很大程度上就是一部叙事切换史。这些叙事彼此之间并不总是自洽,却在不同阶段都极其有效:它先后把自己讲成颠覆旧秩序的反叛者,可能毁灭人类的“原子弹时刻”,治愈疾病、创造丰裕的救世工具,替代软件与人工的新基础设施,最后甚至在地面电力、水资源和社区阻力不足以支撑扩张时,把故事推向太空,制造了一个星际工业革命与文明升级的工程叙事。


每一次切换,都带来新的资源;每一次切换,也都掩盖新的代价。


第一重叙事:ChatGPT将颠覆谷歌,也将击穿旧巨头


ChatGPT刚爆发时,最有煽动性的故事是:一个新型对话模型,可能重写搜索、重写软件入口、甚至重写互联网的权力地图。谷歌会不会被颠覆,始终是AI热潮最早也最成功的传播密码之一。它把原本抽象的模型竞赛,翻译成人人都能理解的王朝更替戏码。


这套叙事自带一套“技术民主化”的节奏。人们会以为,旧巨头将被打倒,知识入口将重新分配,新的创造者会大量涌现。但实际发生的,不是权力分散,而是权力重新集中。ChatGPT确实让Google第一次显得迟钝,也确实迫使Google一度进入危机状态;然而它没有把知识权力交还给公众,而是让谁拥有最大模型、最多算力、最多分发渠道、最多资本变成比过去更关键的竞争条件。所谓颠覆谷歌,最后并没有真正瓦解平台逻辑,反而推进到一个更强的形态:从链接平台,进化为答案平台;从流量分发者,进化为认知中介。


第二重叙事:AI可能带来灭绝,所以请把更多权力交给我们


如果说第一重叙事的关键词是颠覆,那么第二重叙事的关键词就是威力。2023年5月,智库Center for AI Safety发布了一句话声明:“降低AI导致灭绝的风险,应当成为全球优先事项,与流行病和核战争并列。”签署者包括OpenAI CEO奥特曼(Sam Altman)、谷歌DeepMind CEO哈萨比斯(Demis Hassabis)等顶级实验室负责人。同一时期,奥特曼出席美国参议院听证会,讨论AI需要什么监管;OpenAI随后又正式推出“超级对齐”计划,公开表示超级智能可能是人类最重要的技术,也可能导致人类被剥夺权力,甚至灭绝,而且它可能在十年内降临。


从表面看,这是一种负责任的警告。AI科学家提醒社会:不要只盯着效率,也要看到前沿风险。这一层当然并非全是假装,前沿模型的失控、武器化、滥用与系统性外溢风险,确实值得认真对待。问题在于,这种叙事在政治上有一种非常特殊的效果:它把实验室创始人和前沿科学家,从普通科技创业者,抬升成了“知道末日何时来临的人”。他们不再只是卖产品的人,而像是握有启示录话语权的人。他们既是风险制造者,又是风险解释者,还是风险治理规则的共同起草人。于是,AI公司在一种奇特的位置上获得了额外权威:正因为它危险,所以更需要它的发明者来领导社会面对它。


这就是为什么一些AI创始人喜欢被媒体比作奥本海默。不是因为他们都真心迷恋毁灭,而是因为“核级风险”的修辞,能同时完成三件事。第一,它证明这项技术不是普通软件更新,而是文明级变量。第二,它让监管变成高门槛专业事务,而不是大众可以轻易介入的公共选择。第三,它反过来为资本、算力、数据中心和电力基础设施的超常规投入提供正当性:既然对手如此强大,风险如此巨大,那么就必须集中资源,不能慢,不能省,不能输。


这套叙事最值得警惕之处,不在于它“夸大风险”,而在于它会遮蔽风险的层次。灭绝风险一旦成为头号话术,很多更迫近、更具体、也更现实的问题反而容易被挤到边缘:版权侵占、就业挤压、平台垄断、内容污染、监控、深伪、教育退化、认知依赖、地域资源争夺。这些问题不够“末日”,因此在资本市场和媒体传播里不够性感。可对普通人来说,真正改变他们生活的,往往不是“十年后AI是否灭绝人类”,而是明年岗位还在不在、内容还真不真、孩子学习是不是越来越依赖机器。末日叙事越宏大,日常损害越容易被轻描淡写。


第三重叙事:它不仅危险,而且神奇,像上帝一样带来恩典


但如果只有末日叙事,社会不会长久买账。于是第三重叙事紧接着出现:AI不仅强大到危险,也强大到近乎神迹。OpenAI发布GPT-4时强调它在多项专业与学术基准上表现接近或达到人类高水平;发布Sora时又强调模型能生成多角色、复杂运动和连续镜头的视频;而哈萨比斯在2025年的《60分钟》电视采访中更直接地说,AI可能带来“彻底的丰裕(radical abundance)”,也就是消灭稀缺,甚至可能帮助人类在十年内治愈疾病。


这类叙事的传播效率极高,因为它和人类最古老的心理机制直接对接:惊异感、救赎感、技术崇高感。Sora在2024年首次展示时,立即产生了魔法般的效应。而GPT-4、GPT-4o以及之后的多模态产品,每一次演示都在强化一种感受:AI不再只是自动化工具,而像是一种随时可调用的认知神力。这种神奇感,是AI资本市场最重要的情绪燃料之一。没有这种强烈的惊艳时刻,就很难解释为什么资金会以前所未见的速度涌向模型公司、芯片公司和数据中心。


但一个系统可以在演示中近乎魔法般地工作,却在真实社会里制造高昂的验证成本、责任不清与信任侵蚀。视频生成越逼真,伪造的成本越低;输出越像答案,用户越可能降低核验意愿;系统越会说、会写、会画、会拍,原创劳动就越容易被压价。


于是神奇本身变成了合法性陷阱:因为它看上去太有用、太迷人,社会就被要求先接受它,再慢慢处理它带来的副作用。


第四重叙事:在资本压力下,它必须证明能颠覆软件、取代人工


当热度进入第二阶段,资本要的不是惊叹,而是收入模型、市场规模和现金流。于是,AI叙事开始从“改变世界”切换到“改变企业预算”。OpenAI在2025年推出Operator,把浏览网页、点击、填写表单这类重复性任务包装为“能独立替你做事的智能体”;又推出深度研究,把复杂检索、综合分析和报告生成包装为原本要花人类数小时才能完成的工作。微软预计到2028年职场中将有13亿个AI代理。AI产业正在把自己的故事从回答问题升级为替人打工。


叙事开始直接地触碰劳动力市场,因为这是最容易换算成TAM(总获得市场)和利润的地方。Klarna在2024年告诉市场,它通过AI客服缩减了数百个岗位,还会继续减少;但到2025年上市时,其CEO又承认,公司可能在用AI削减成本这件事上走得太快,现在更想把重点转回服务质量和产品改进。这个反复非常有代表性,说明企业界最初最愿意传播的,几乎总是AI能替掉多少人,因为这是华尔街最容易理解的故事;可一旦体验、质量与品牌受损,企业又不得不承认,替代神话并没有那么简单。


但更值得注意的是,连AI实验室自己也开始主动放大就业冲击的叙事。Anthropic CEO阿莫迪(Dario Amodei)一方面对媒体称AI可能在一到五年内消灭一半入门级白领岗位,并把失业率推高到10%至20%;而Anthropic自己在研究里又更谨慎地表示,目前还没有看到高暴露职业失业率显著上升,但22到25岁年轻人进入这些职业的招聘似乎已有放缓迹象。也就是说,连实验室内部都存在两套并不完全一致的话语:对外强调震撼性的未来冲击;内部研究则得出更复杂、更含糊的结论。


与此同时,商业化的逻辑也在迅速把AI从工具推向平台。OpenAI开始像互联网巨头一样建立广告业务。叙事在这里再次切换:前一刻,AI还是解放劳动、提高认知自由度的助理;下一刻,它已经开始长出和Google、Meta类似的广告商业逻辑。所谓取代软件、取代人工的故事,最后并不只是软件革命,也可能是更深的平台化与广告化。


因此,这一阶段真正的问题不只是AI会不会抢工作,而是它是否正在把白领劳动、软件预算和用户注意力同时货币化。软件行业过去卖席位,AI行业现在一边卖智能体,一边卖推理,一边又可能卖广告。劳动不是简单被消灭,而是被重新定价、重新切片、重新放进模型公司的收入表里。对多数普通人来说,这就是为什么AI叙事开始越来越刺耳:它似乎和公众期待的助手并不一样,而是也可能走回互联网巨头的老路。


第五重叙事:地面受限后,它转向基础设施民族主义,甚至转向太空


当产品故事越来越需要算力支撑,叙事的重心又变了。它不再是哪家模型更聪明,而是关于谁能拿到更多电力、土地、冷却、水和变压器。进入2026年,OpenAI推出星门社区(Stargate Community)计划,强调要为社区“支付能源成本”,不抬高当地电价,因为能源已经成为AI增长的关键约束。


AI进入基础设施阶段,就不再只是抽象伦理,而变成非常具体的资源分配政治。美国最大的AI数据中心可以消耗超过1GW持续负荷,相当于给85万户家庭供电;许多项目不得不自建燃气、可再生或核能电站;电网扩容、燃气轮机交付和并网审批都成为瓶颈。


第五重叙事自然就和地缘政治绑定了。中国数据中心背后是更便宜、更充足的电力,与美国老化电网和漫长并网等待形成鲜明对比。AI被明确放入让美国在全球AI竞赛中保持领先的国家叙事里。


在美国,AI叙事在国家层面越宏大,在地方层面越可能遭遇抵抗。国家说这是未来,社区看到的却可能是水资源压力、地价扰动、噪音、排放和电网挤占。宏大叙事与地方经验之间的裂缝,造成合法性的流失。


AI叙事开始向太空延伸。SpaceX提交IPO申请,马斯克说是要用它来实现多达一百万颗数据中心卫星上天,以绕开地球上的电力和用水限制。这件事正因为听上去像科幻,才极其符合AI产业的叙事习惯:当地面的物质条件开始约束AI扩张时,最有效的反应不是收缩,而是把故事推到更远、更大、更像文明工程的地方去。


这正是今天AI叙事最显著的特征之一:它对约束的回应,不是承认边界,而是升级想象。缺电,就讲自建电厂;地方反对,就讲国家竞争;地球受限,就讲轨道数据中心。叙事的尺度不断放大,可公众会越来越清楚地意识到:他们被要求承担的是现实成本,而承诺给他们的却是遥远而抽象的未来丰裕。


第六重叙事:后稀缺社会与“彻底丰裕”,其实是在跳过分配问题


AI叙事最后的一层乌托邦色彩就登场了。哈萨比斯指向一种消除稀缺的未来;马斯克则长期在另一个方向上构造类似图景,从AGI很快到来,到工作变成可选,再到所谓“全民高收入(universal high income)”。无论两人的政治气质和技术路线差别多大,他们在最远端的想象里却有一种惊人的趋同:AI将把人类带到一个物质和智识都大幅丰富的阶段,传统匮乏逻辑不再成立。而这一切,基本上来自他们年轻时阅读的班克斯的科幻小说“文明”系列。


这种叙事为什么迷人?因为它提供了一种极强的道德赎罪机制。只要你相信后面会出现“丰裕社会”,眼下的一切阵痛就都能被解释成过渡期:失业只是过渡,贫富分化只是过渡,创作者受损只是过渡,电网紧张只是过渡,广告化和平台集中也只是过渡。未来会如此富足,以至于当下的不平等只需暂时忍受。这套话语极其方便,因为它允许他们把最困难的问题往后推。


但后稀缺叙事有一个致命缺口:它几乎总是在谈生产力,却回避分配权。AI确实可能极大提升生产力,可能加速科学发现,可能降低服务成本,甚至可能带来前所未有的社会富裕;可如果数据、模型、算力、平台入口、广告网络、机器人系统和能源基础设施都掌握在极少数公司与国家机器手中,那么丰裕并不会自动转化为公平。相反,它完全可能首先表现为资产所有者的超额回报、技术精英的权力膨胀,以及多数劳动者在议价能力和社会尊严上的持续缩水。所谓后稀缺,如果没有新的制度设计,最后很可能只是高生产率条件下的新封建秩序。


更深的问题在于,人的生活并不只由物质财富定义。工作不仅是收入来源,也是教育、身份、社会关系和自我评价的来源。马斯克式“工作变成爱好”的表达,或者某些实验室所设想的“人人都能把琐碎工作委托给代理”的未来,也许对极少数高技能人群是真解放,对更多人却未必如此。因为被替掉的,不只是低效率流程,还有人成长所需要的台阶。入门岗位消失、初级认知劳动压缩、训练机会减少,这些都不是发点补贴就能解决的问题。AI若真把很多年轻人最初进入专业世界的阶梯拆掉,社会不会感受到丰裕,而会先感受到被机会跳过。


当叙事开始反噬:从焦虑、敌意到象征性暴力


奥特曼家里遭遇纵火和枪击,是否在某种意义上折射了这一代年轻人或公众的心理?至少在纵火案中,媒体挖到嫌疑人曾在网上表达强烈的反AI、反失控、反未对齐AI的观点,而奥特曼本人则在事后呼吁给AI争论降温。


很多主张暂停AI的人也公开反对这类暴力行为。真正值得讨论的,正是为什么AI问题已经足够情绪化、足够符号化,以至于它能吸附这种极端行为?


答案就在前面的叙事结构里。一个技术共同体如果长期把自己塑造成既能毁灭人类、又能拯救人类;既会消灭你的工作、又会带来后稀缺天堂;既在争夺国家命运、又在改写你的私人生活,那么它就不可能长期只激发理性讨论。它会激发崇拜,也会激发恐惧;会激发投机,也会激发怨恨。尤其当年轻人面对的是学位贬值、入门岗位萎缩、房价高企、平台化加深、政治失序,而AI圈还在不断告诉他们“这是进步”、“这是必须接受的过渡”、“以后会更丰裕”,那么叙事和现实之间的张力就会不断积累。


美国保守派著名新闻主播卡森(Tucker Carlson),在All in播客节目中不客气地对着几位AI大咖指出了这套叙事的失败,它可能还来的社会危机的后果。


一个名为“Not For Private Gain”的团体批评OpenAI的重组方案不足以确保公司把公共利益置于利润之上;最近佛罗里达州总检察长又对OpenAI启动调查。这些行动未必都立场相同,但它们共同说明一件事:围绕AI巨头的质疑,已经不再局限于技术圈,而是扩散到法律、监管、公益组织和更广泛的政治中。


AI的问题,不是它有没有叙事,而是它的叙事太成功了


AI叙事正在反噬其合法性,但不是因为AI圈“讲故事”这件事本身有原罪。任何重大技术革命都需要叙事,没有叙事就没有组织能力,没有组织能力就没有资本、人才与制度协调。真正的问题是,ChatGPT之后的AI叙事过于成功,以至于它把几种原本彼此冲突的修辞全都收编进来了:反垄断的英雄叙事、核风险的先知叙事、救世主式的丰裕叙事、华尔街式的市场规模叙事、国家竞争的基础设施叙事、以及科幻式的后稀缺叙事。它几乎在每个方向上都说自己是必要的。


然而,一个技术如果要获得稳定的社会合法性,最终不能只靠必要性,而必须靠可验证的公共收益、可承受的社会成本、可追责的治理结构,以及对失败者真实而非修辞化的补偿。今天AI最缺的,不是更宏伟的未来学,而是更诚实的政治经济学。它需要告诉社会:哪些工作会先被冲击,谁来承担培训责任;数据中心占用的电、水、土地如何补偿社区;模型错误与深伪伤害如何追责;广告化之后用户利益如何保障;如果真的走向丰裕,这份丰裕的产权和分配机制是什么。没有这些,所有“丰裕”“治愈”“代理”“超级智能”的语言,最终都会显得像是一种要公众先交出信任、却迟迟不兑现的高压推销。


叙事之所以反噬,不是因为人们天生反技术,而是因为越来越多的人开始意识到:这套叙事要求他们相信的东西太多,要求他们克服的困难太多,忍受的东西也太多。一个不断宣称自己将创造新世界的行业,最终要面对的,恰恰是最古老的问题:它到底让多数人的世界变好了,还是只是让少数人更像世界的主人?

AI创投日报频道: 前沿科技
本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定