OpenAI CEO奥尔特曼遇袭事件折射AI时代技术权力集中引发的治理危机,暴露公众对技术专制、算法黑箱及主权碎片化的深层焦虑,需重构数字时代社会契约。 ## 一、公众对AI的四大核心焦虑 1. **技术失控风险**:未经充分"对齐"的超级智能可能脱离人类控制,专家担忧其引发不可逆灾难。 2. **权力集中垄断**:OpenAI等企业通过算法掌控全球信息流,形成事实主导力却规避公众问责。 3. **经济社会冲击**:OECD报告显示全球40%岗位受AI影响(发达国家达60%),同时AI军事化应用加速(如美以行动中AI决策缩短至秒级)。 4. **技术滥用现实**:Anthropic与五角大楼关于移除大模型安全防护的争议,凸显算法参与杀伤链的伦理困境。 ## 二、国家主权的传统根基与当代挑战 1. **古典政治理论框架**:霍布斯-洛克-卢梭体系确立国家作为暴力垄断者与公共利益代理人的合法性,需解决权力来源、多元表达与平稳更迭三大难题。 2. **跨国公司历史参照**:20世纪企业通过ISDS机制和离岸避税(如苹果"三明治"架构)挑战主权,但国家通过WTO、BEPS计划等制度创新重获主导权。 3. **AI企业的本质差异**:算法主权形成"纵向治理"能力,直接介入政策模拟、军事决策等核心领域,传统监管工具(如GDPR)面临技术滞后。 ## 三、AI引发的治理替代与主权碎片化 1. **影子治理机制**:推荐算法重塑公共议程,信用系统替代国家监管,形成"国家-技术寡头复合体"(如美以军事合作依赖Palantir+Claude模型)。 2. **责任归属困境**:欧盟AI法案与中国算法备案制均显示,算法黑箱与快速迭代使传统问责机制失效。 3. **全球监管滞后性**:2026年生效的欧盟高风险AI规则已面临合规压力,企业仍通过技术标准输出隐性规范。 ## 四、重构数字社会契约的路径 1. **多边治理创新**:需建立"超级智能国际原子能机构",实施算力许可阈值(如高算力项目强制申报)和多边安全审计。 2. **平衡发展策略**:斯坦福报告显示中印对AI更乐观,但全球需避免重蹈核技术监管二十年滞后的历史教训,通过公民审议平台重建合法性。 3. **关键数据对比**:AI虽可能提升全球GDP7-35%(OECD),但80%工人认为其改善绩效的同时,北美欧洲仍呈现"低兴奋高紧张"的民意分裂。
孙占卿:奥尔特曼两次遇袭,照见AI时代深刻的政治危机
2026-04-17 19:56

孙占卿:奥尔特曼两次遇袭,照见AI时代深刻的政治危机

本文来自微信公众号: IPP评论 ,作者:孙占卿


导语:近日,OpenAI首席执行官萨姆·奥尔特曼的住所接连两次遭到袭击,其中一位嫌疑人来自知名反AI组织PauseAI的群成员。事件一出,围绕这起新闻的不同回应与解读,已反映出技术掌权者与普通大众之间,在人工智能问题上存在的深层分歧。斯坦福大学近日发布的《2026年人工智能指数报告》也显示公众感受与技术精英的乐观叙事间存在明显错位。


IPP特约研究员孙占卿认为,这些不同层面的担忧,最终都指向同一问题:AI发展过程中,技术、资源与权力日益集中,形成难以追责的“黑箱效应”,并催生出一种带有“技术专制”色彩的治理倾向。与此同时,国家在竞争压力下加深对科技企业的战略依赖,一种介于合谋与替代之间的“影子治理”格局,正逐渐浮现。


孙占卿博士

广州市社会科学院城市文化研究所副所长、IPP特约研究员


2026年4月10日凌晨,OpenAI首席执行官萨姆·奥特曼位于旧金山的住宅遭到一名年轻男子投掷燃烧瓶袭击,随后该男子前往OpenAI总部外公开威胁焚烧大楼,并当场被捕。


据调查,其行为源于对超级智能失控导致人类灭绝的极端恐惧。PauseAI组织(呼吁“暂停开发最强大的通用AI”的国际组织,创立于荷兰)迅速对一切暴力行为予以谴责。


奥特曼随后在博客中作出回应,承认AI的巨大影响力,坦承过往失误,并呼吁缓和矛盾,同时表示公众的部分恐惧具有合理性,但强调暴力绝不可接受。


奥特曼在博客上发回应长文。


这一事件看似孤立,却深刻反映出更深层的社会焦虑:公众对技术专制的恐惧,本质上是传统政治框架——以政府为核心的公共产品、社会契约与国家主权——在人工智能等超级技术的冲击下正面临结构性崩解。


一、公众的恐惧:从存在风险到隐性支配


这种恐惧并非突发情况,而是AI高速发展中多重张力长期累积的结果。OpenAI作为本轮人工智能浪潮的标杆,其以ChatGPT系列产品为代表的AI项目已深刻重塑全球生产力格局,并将“超级智能”——即超越人类在所有认知领域能力的通用人工智能——从科幻推向现实讨论的前沿。


公众焦虑主要源于四个相互交织的维度。


首先是技术失控的幽灵。众多专家与活动家担忧,未经充分“对齐”的超级智能可能脱离人类掌控,引发不可逆转的灾难。


其次是权力的集中。少数科技领袖通过算法掌控信息流动与行为预测,形成事实上的主导影响力,却借企业架构规避公众问责。这种私人实验室主导AGI竞赛的模式,被广泛视为精英对全球资源的垄断。


再次是经济社会冲击。AI驱动的自动化威胁大规模就业替代、隐私侵蚀,并延伸至军事化应用。


最后是技术滥用的现实镜像。在2026年2至3月美以联合打击伊朗的行动中,美军广泛部署AI工具——包括通过Palantir平台整合Anthropic的Claude语言模型——实现战场数据实时处理、目标识别与决策加速,将传统流程从数小时缩短至秒级,这一行动凸显了AI在现代杀伤链中的核心地位。随后,Anthropic与五角大楼之间关于是否可以移除大模型安全防护的争执,进一步引发了公众对技术滥用问题的关注。


这些焦虑可以归结到一点:AI快速发展中,技术、资源与权力的同频集中,形成了无法问责的“黑箱效应”,催生了技术专制——即技术精英借助算法、数据与智能系统,实现对社会、经济乃至政治的隐性支配,而非仰赖传统政治权威。


但与此同时,AI也展现出显著的积极贡献。根据OECD的最新报告,有五分之四的参与调查的工人表示,AI提升了他们的工作绩效,五分之三则认为工作变得更有乐趣了;


北美与欧洲国家对人工智能的总体看法仍集中在“低兴奋度”和“高紧张感”的区间。相比之下,中国和印度尼西亚公众对AI看法则总体乐观。图源:The 2026 AI Index Report|Stanford HAI


IMF同期研究显示,全球近40%的就业岗位受AI影响,先进经济体这一比例高达60%,同时AI驱动的生产力提升可能使全球GDP累计增长7%至35%。这些益处提醒我们,公众的焦虑并非对技术本身的否定,而是对治理失衡的警醒。



二、古典政治的根基:政府是人类最重要的公共产品


政府作为人类创造的最重要的公共产品之一,其核心职能在于制定并执行规则、协调多元利益、维护社会秩序。


霍布斯(Thomas Hobbes)在《利维坦》中指出,主权权威是克服“自然状态”下无序竞争的唯一途径——通过社会契约赋予国家对暴力的合法垄断,以保障秩序与安全。


约翰·洛克(John Locke)进而主张,政府源于人民同意,其正当性在于保护自然权利,并通过分权制衡实现多元利益的协调。


卢梭则在《社会契约论》中深化了集体意志的概念,强调决策合法性源于公民参与,而非单纯强制。


这些理论共同回应了现代政府面临的三大难题:权力的合法性来源、决策中的多元利益表达,以及权力的平稳更迭。韦伯据此将现代国家定义为“成功垄断合法暴力”的实体。福山甚至据此宣称“历史的终结”,认为自由民主国家已实现这些要素的制度化平衡。


在此框架下,国家不仅是领土主权的守护者,更是公共利益的透明代理人。其治理能力依赖于可问责的规则体系。任何外部力量挑战这一垄断,却又试图不承担其约束,都可能引发根本的合法性危机。


三、跨国企业挑战:国家主导权的重申


20世纪后半叶,随着全球化浪潮席卷各地,跨国公司一度对国家治理模式构成显著挑战。这些企业通过经济渗透、产业链全球化和资本自由流动,不仅塑造了一系列有利于自身扩张的全球规则与权力结构,更直接挑战了传统国家主权的多个核心维度,最终促使各国政府通过系统性回应与改革,重申并巩固了其治理主导权。


跨国公司首先塑造了以自由化、灵活化和企业中心为导向的全球经济规则与权力格局。它们通过游说与资本杠杆,推动双边投资协定(BITs)中“投资者-国家争端解决机制(ISDS)”的普及,使企业得以绕过国内司法程序,直接向国际仲裁庭提出索赔,从而将“投资保护”转化为事实上的超国家权力工具。


同时,企业利用离岸金融中心和复杂税务结构(如苹果公司的“双层爱尔兰夹荷兰三明治”机制),将利润转移标准化,塑造了全球税务规则的灰色地带,并通过供应链标准(如劳工认证体系)间接定义了跨国生产中的环境与社会规范。


这些规则表面上服务于效率最大化,实质上赋予了企业跨越国界的准立法权和资源配置权,将经济影响力转化为对全球治理议程的隐性主导。这一塑造过程直接挑战了传统国家的核心权力。


首先是财政主权:大规模避税导致东道国税收流失,削弱了公共财政能力与福利再分配职能。


其次是监管主权:企业通过生产基地转移或威胁撤资,规避严格的劳工、环境和安全法规,形成“监管竞次”现象,侵蚀国家对境内经济活动的有效控制。


再次是司法与立法主权:ISDS机制使国家立法(如烟草平装法或环境标准)面临巨额赔偿风险,迫使政府在决策时进行自我审查,模糊了主权平等原则。


最后,挑战还波及外交与领土主权:企业游说母国干预东道国内政(如1954年联合果品公司推动美国支持危地马拉政变),或在资源富集地区建立事实上的“国中之国”,挑战了威斯特伐利亚体系下的领土完整与政治自治。


危地马拉阿本斯政府推行土地改革、触动联合果品公司利益后,后者游说美国政府将危地马拉塑造成苏联在西半球的支点。图源:Wikimedia Commons


面对这些多维度挑战,国家并未被动退让,而是展开了系统性的回应与制度改革。


在国际层面,推动多边规则的深化与再平衡:1995年世界贸易组织的成立,通过争端解决机制、反倾销条款和《服务贸易总协定》,将跨国企业的横向渗透纳入可控轨道;经济合作与发展组织(OECD)发起的BEPS(税基侵蚀与利润转移)行动计划,以及2021年全球最低公司税率协议(15%),直接堵塞了避税漏洞,重塑了国际税务协调框架。


在国内层面,各国强化监管工具:欧盟推出《通用数据保护条例》(GDPR)和《数字市场法》(DMA);美国通过外国投资审查委员会(CFIUS)强化国家安全审查;部分国家则重新谈判BITs,加入公共利益例外条款与环境劳工标准。同时,企业社会责任(CSR)被纳入法律强制范畴,推动跨国公司从“规避者”转向“合规者”。


这些回应与改革最终实现了显著成效:国家主导权得到实质性重申,跨国企业虽保留全球流动性,却被牢固锚定于领土主权与可量化的国际规则之下。税收流失得到遏制,公共财政能力回升;监管竞次趋势逆转,全球劳工与环境标准整体提升;ISDS(投资者—国家争端解决)机制的滥用风险下降,企业对主权立法的直接反制能力减弱。


更重要的是,这一博弈过程为当代治理提供了宝贵经验:它证明国家通过制度创新,能够在全球化压力下恢复平衡。国家可以同时维护效率与创新,并捍卫社会契约的核心——透明、可问责与公民同意。


跨国企业的历史经验为理解AI挑战提供了关键参照。


四、超级AI企业:纵向渗透与监管阴影


超级AI企业与传统跨国公司存在本质差异,其技术特性赋予了超越单纯经济渗透的“纵向治理”能力,从而对传统政治框架构成了更为深刻且结构性的挑战。


首先,AI的天然跨国界属性源于数据与算力的全球流动性。


模型训练依赖海量全球数据集,部署可瞬间跨越国界,无需依赖实体供应链。而更为关键的,是其“纵向渗透能力”——通过算法、黑箱决策机制和主动规则塑造,AI企业直接介入社会治理的微观层面。不同于跨国公司的横向市场影响,AI算法能够嵌入决策链条、预测行为并优化资源分配,形成隐性规则体系:推荐算法重塑公共舆论,信用评分系统左右个体权利,而生成式AI则可直接生成政策模拟或军事目标清单。


这一渗透伴随着国家对AI的战略依赖。为维持国力,政府不得不与AI企业进行深度合作,正如美以对伊朗的军事行动所示。然而,AI的高技术属性使其得以“躲藏”于政府与企业治理的“阴影”中:算法黑箱的不透明性、快速自我迭代能力,以及跨学科专业壁垒,导致传统监管工具——如反垄断法或数据保护条例——难以奏效。欧盟AI法案或美国行政命令虽试图填补空白,却面临技术滞后与全球协调难题。AI企业由此形成“影子治理”:表面服从国家框架,实质通过技术标准主导规则制定,悄然重塑治理逻辑。


在政治学框架下,AI企业通过其独特技术属性,不仅塑造了全新的治理规则与权力结构,更在多个关键领域形成了对传统国家权力的系统性替代与深度合谋,进而加剧了技术专制的风险。这一治理替代机制的核心在于:AI企业不再是被动的市场参与者,而是主动构建了一种“算法主权”——以数据闭环、自我迭代和预测性建模为手段,预设并执行社会规则,从而部分接管了国家传统上对公共生活的主导权。


具体而言,AI企业塑造的治理替代机制,首先体现在公共话语与议程设置领域。国家通过宪法、法律和公共媒体行使话语规范权,而AI平台的推荐算法则通过个性化推送、内容优先级排序和趋势放大,直接定义何种信息被视为“可接受”或“主流”。这一机制超越了单纯的信息过滤,形成了一种预设性治理。这实质上替代了国家对公共领域的形塑职能。


其次,在经济与资源分配治理上,AI驱动的信用评分、劳动力匹配和资源优化系统,已部分取代国家再分配与市场监管角色。


例如,生成式AI可实时生成政策模拟与经济预测模型,企业借此影响国家决策流程,同时将其私有数据标准转化为事实上的全球经济治理规范。


再次,在安全与决策治理层面,AI辅助的杀伤链优化(如美以行动中Claude模型的整合)与预测性分析,直接介入国家暴力垄断的执行环节:算法不仅提供决策建议,还能通过概率模型预判风险、分配资源,甚至模糊责任归属,从而在一定程度上替代了传统官僚体系的审慎判断。


替代机制进一步衍生出国家权力的深度合谋模式。为维持全球战略优势,国家主动将部分治理职能“外包”给AI企业,形成不对称的“国家-技术寡头复合体”。政府获得即时国力提升(如军事智能化、治理效率);企业则借此获取合法性庇护、海量数据授权与政策豁免。这种合谋虽强化了短期国家能力,却削弱了社会契约的平等基础:公民同意被算法逻辑取代,民主审议过程被技术黑箱架空。


AI企业在责任归属上成功脱离有效监管与问责。算法黑箱的不透明性、模型快速自我迭代的能力,以及跨学科的专业壁垒,使传统监管规则——基于可解释性、可审计性和属地管辖——在技术上已严重滞后。当算法导致社会危害时,责任往往在“技术中立”或“企业自治”的名义下被稀释,企业得以游离于传统企业责任框架之外。


超级AI企业的发展进一步加速了主权碎片化。若任由发展,这种纵向渗透与监管阴影将演变为混合治理模式——国家借助AI强化控制,企业则输出隐性规范,二者共同侵蚀社会契约的平等基础。


治理替代机制的形成标志着AI企业已不再是传统意义上的经济主体,而是正在崛起的新型治理力量,其对政治架构的冲击远超以往任何跨国公司。这一判断在全球监管实践中得到印证。根据欧盟AI法案,2025年2月禁止性规定生效,高风险系统规则将于2026年8月全面强制,企业合规成本显著上升,委员会已提议部分延迟至2027年底以缓解压力。中国则早在2023年起推行算法备案与生成式AI内容管理法规,侧重风险分级与本土化治理。二者形成鲜明对比,却共同凸显了现有监管工具面对AI垂直渗透能力的滞后性。


五、反思:合法性危机与数字时代的社会契约


上述差异共同指向技术专制担忧的深层根源——传统政治框架的崩解。


社会契约论预设的治理主体是透明、可控的国家,而AI引入的私人技术精英却掌握“超级智能”潜力,其决策过程缺乏民主审议,违背了洛克式权利保护与卢梭式集体意志。算法治理进一步挑战韦伯定义的国家暴力垄断:AI辅助的自主系统模糊责任归属,引发合法性赤字。福山式“历史终结”叙事随之被颠覆——全球化曾强化国家适应能力,而AI的指数级进步则加速权力向少数企业的集中,形成潜在的技术专制深化形态:数据与模型成为新生产资料,精英掌控分配规则,民众沦为被动适应者。


这一危机更具全球性。AI的非领土性超越威斯特伐利亚主权体系,迫使国家在合作与依赖间艰难权衡,却难以重建多元利益表达机制。若任其发展,可能演变为混合治理模式:国家借AI强化控制,企业则输出隐性规范,二者共同侵蚀社会契约的平等基础。


这一风险与核技术时代形成历史呼应:从1946年“巴鲁克计划”(美国驻联合国原子能委员会代表伯纳德·巴鲁克提出的国际核能管制方案)到1968年《不扩散核武器条约》,国际社会历经二十年才建立起多边监管框架,AI治理同样需要类似前瞻性制度创新。


面对这一空前挑战,必须构建超越国家和行业的治理创新。


一方面,强化国际合作,建立类似“超级智能国际原子能机构”的多边框架,实现透明审计与安全标准。该机构可采用计算力许可阈值、多边安全审计以及渐进式红线机制:高算力训练项目需提前申报、接受第三方红队测试,并设定全球统一的安全底线。


另一方面,推动“数字社会契约”,通过公民审议平台恢复合法性基础。同时,企业需承担更高伦理责任,国家则应投资本土AI能力,避免过度依赖。唯有平衡创新与审慎,才可能将技术专制风险转化为治理现代化的机遇。

AI原生产品日报频道: 前沿科技
本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。
正在改变与想要改变世界的人,都在 虎嗅APP