欧盟《人工智能法案》面临“智能体”技术带来的结构性监管困境,其基于风险的静态成文法难以适配高度自主、行为不确定的AI技术迭代。中国人工智能立法应以此为鉴,避免“削足适履”,为技术发展充分留白,探索自主法治道路。 ## 欧盟的监管窘境:成文法与动态技术的矛盾 - 文章开篇即点出核心困境:用一成不变的成文法去框定瞬息万变的AI技术迭代,导致欧盟规则在“智能体”时代的不适配性愈发突出。 - 这一窘境对中国人工智能立法极具参考价值,警示立法需警惕单一化分类,为技术发展“留白”。 ## 概念界定的现实困境:从内容生成到自主行为 - 欧盟承认“智能体”与“代理型人工智能”等术语的边界模糊且仍在演进,其核心特征在于能感知环境并执行行动。 - 智能体的自主行动能力直接触及民法中“意思表示”与“法律行为”的核心,用静态法律定义动态技术对象,易陷入“刻舟求剑”的困局。 ## “削足适履”的防御性解释:法律涵摄的局限 - 为维系法律安定性,欧盟将“智能体”拆解为“交互界面”和“底层GPAI”,强行纳入现有“人工智能系统”定义进行规制。 - 这种权宜之计混淆了智能体独特行为逻辑与底层模型的风险,为未来的侵权归责和合同认定埋下隐患。 ## 现行规则“三板斧”的失灵风险 - 欧盟试图用禁止有害行为、高风险附加义务与透明度要求这三项核心规则来框定智能体,其逻辑起点是传统的产品规制思维。 - 以“预设用途”为核心的规制在面对能自主偏离目标的智能体时近乎“缘木求鱼”,固定的风险分类难以应对动态行为。 ## 规制逻辑的实质纠偏:从算力到能力 - 在判定系统性风险时,欧盟展现出监管转向,将智能体的“自主程度”和“工具调用能力”作为关键衡量要素,而非仅依赖“训练算力阈值”。 - 这标志着监管焦点从算力参数转向实质能力认定,更能贴合智能体带来的级联风险场景。 ## “监管留白”的悖论:法律稳定与技术演进的博弈 - 欧盟坦承当前监管考量是“初步的”,并通过人工智能办公室为未来政策预留活口,试图以“监管留白”应对技术不确定性。 - 然而,法律追求的安定性与技术固有的颠覆性之间存在根本矛盾,欧盟的应对可能陷入“西西弗斯困局”,难以追赶技术发展的步伐。
欧盟《人工智能法案》监管“智能体”困境
2026-04-13 20:33

欧盟《人工智能法案》监管“智能体”困境

本文来自微信公众号:Internet Law Review,作者:金晶(中国政法大学教授)、王天凡(北京航空航天大学副教授)、高郦梅(中国政法大学讲师),头图来自:AI生成


近日,欧盟针就AI智能体监管在答疑专栏(FAQ)发布官方回应。我们回溯了该项问答的背景信息,对问答内容进行逐段翻译,并辅以简明评释,希望能为智能体监管的细分研究,提供一些参考。


我们要探讨的核心问题是:面对“智能体”,欧盟的现有规则还管用吗?审视欧盟《人工智能法案》在应对“智能体”技术时的表现,我们不难发现一个结构性窘境:用一成不变的成文法去框定瞬息万变的AI技术迭代。在“智能体”时代,欧盟规则的不适配性,愈发捉襟见肘。


对中国的人工智能立法研究而言,这是一个极具价值的反思示例。在我国统筹发展与安全的战略背景下,人工智能立法如何应对“智能体”等最新的技术迭代形式?立法如何能跟上技术演进的步伐?


人工智能立法研究专家组在2026年3月23日发布的“中国人工智能立法的十大核心议题:欧盟《人工智能法》何以镜鉴?”中,答疑涉及的问题已被涵盖,即涉及我们提出的第二项核心议题——AI定义困境:实现法律确定性抑或为技术演进留白?欧盟此次答疑也进一步印证了该议题对于人工智能立法所提出的严峻挑战。


欧盟面临的立法适用困局也提醒我们,人工智能立法应警惕依赖合规导向、系统风险分级导向的单一化分类,而要为技术发展充分“留白”。就中国而言,我们应立足中国本土的人工智能产业实践,尤其是基于“人工智能+”产业链全面转型的大背景,探寻具有中国自主特色的人工智能法治道路,而不是牺牲产业竞争力和技术创新性,重复欧盟的“削足适履式”立法之覆辙。


背景信息:欧盟对“智能体”作专项答疑的由来


欧盟作出专项答疑,主要是为回应欧洲议会议员(MEP)谢尔盖·拉戈金斯基(Sergey Lagodinsky)向欧盟委员会执行副主席亨娜·维尔库宁(Henna Virkkunen)发出了一份以“欧盟委员会对智能体(AI Agents)的监管考虑”为题的正式问询函。


在该函件中,谢尔盖·拉戈金斯基(Sergey Lagodinsky)明确提出对《人工智能法案》在智能体的适用性存疑,尤其是关于法案基于风险的条款是否适用。据此希望欧盟委员会就“是否认为存在人工智能系统定义不适用于智能体的情况,如果是的话,在什么情况下适用”予以澄清。


谢尔盖·拉戈金斯基(Sergey Lagodinsky)具体提到:


“《人工智能法案》第3条第1款虽然对人工智能系统进行了宽泛定义,但法案的措辞与智能体的实际功能之间可能存在不一致之处,可能导致其部分或完全不在该法案的适用范围。智能体的行动远远超出了法案关于人工智能‘分析、内容生成或决策’的范畴,而这种自主行动的能力恰恰是区分智能体的特征,而目前法案对人工智能系统的定义似乎未能充分涵盖这一点。


此外,在此情形下,欧盟需要专门的人工智能责任框架,变得尤为重要。因此,欧盟委员会决定正式撤回人工智能责任指令是令人遗憾的。”


由上可见,欧盟此次答疑并非心血来潮或主动出击,而是为回应上述正式问询而作出的澄清。这也意味着,答疑中所涉及的内容旨在针对问询函提出的特定问题进行回应,并不代表欧盟对“智能体”所持有的全面、完整的法律立场,而仅是针对个案的具体回应。


答疑原文与专家评释



核心问题:欧盟《人工智能法案》如何处理智能体(AI agents)问题?


问答内容共五段,以下逐段翻译并作简短评释。


第一段原文:


智能体(AI agent)这一术语,公共讨论中的使用并不一致。这一点部分是源于智能体和其他类型人工智能之间的界线仍是模糊的,并仍在演进之中。虽如此,当下普遍共识是,智能体须具备从其所处环境中接收并处理输入信息之能力,并能基于此等处理执行行为,进而与其环境产生互动或施加影响(例如,发出函数调用指令)


至于代理型人工智能(Agentic AI)一词,则时而被用于描述那类整合了多个智能体的更精密的系统架构。但是,智能体与代理型人工智能这两项术语之间,如何界分、关联为何,目前仍在发展之中。


专家释评:人工智能从输出内容到自主行为——立法规制对象的迭代与概念界定的现实困境。


欧盟问答首段聚焦于“概念界定”,旨在回应谢尔盖·拉戈金斯基(Sergey Lagodinsky)问询函中关于“《人工智能法案》第3条第1款定义能否适用智能体”这一疑问。该段首先明确了智能体(AI agent)与代理型人工智能(Agentic AI)”的技术特征。其核心本质在于环境感知和执行行动的动态交互能力。同时,欧盟也坦承,现有技术和法律边界仍很模糊。


欧盟在首段澄清概念适用,折射出立法在面对技术演进时,所面临的规制对象迭代的现实困局。传统人工智能系统多表现为生成文本或图像,以内容输出为典型,与之相较,智能体的突破,在于其跨越了内容生成的技术门槛,而是更进一步:智能体作为一种高度自主、行为不确定的“类主体”技术工具,能够输出特定的“行为”,能够直接干预物理或虚拟环境(例如智能体手机)


在私法视野下,这种自主行动力非同小可,它直接触及民法领域的“意思表示”与“法律行为”的核心地带。例如,智能体的自主缔约行为。那么,如果仍然沿用相对静态的成文法规则,去定义未来高度动态发展的技术对象,不可避免地会陷入“刻舟求剑”的法律困局之中。欧盟在这一点上,坦言、承认相关概念界定仍在演进,这不仅是立法者对技术认知的留白,更从根本上暴露了《人工智能法案》在应对智能体时面临的结构性挑战。


第二段原文:


“智能体”通常至少包含一个通用人工智能模型(GPAI),且因其往往具备特定形式的交互界面,而该界面可被视为系统组件(参见《人工智能法案》鉴于条款第97条),由此,通常情形下的“智能体”得依法构成法案中的“人工智能系统”。但若要得出较前述“通常”(情形)更严密之论断,则显属困难。


原因在于,“智能体”一词在法律上并无明确界定,日常生活中常以该词泛指各种(技术)产物。所以,《人工智能法案》未将“智能体”单列为独立的人工智能类别,但该法第3条第1款关于“人工智能系统”以及第3条第63项关于“通用人工智能模型”的界定,已足以涵盖“智能体”。这意味着,《人工智能法案》中适用于人工智能系统与GPAI模型的规则,也适用于智能体。


专家释评:“削足适履”的防御性解释:法律涵摄的局限性和责任归属的隐患。


欧盟问答第二段聚焦于“规则适用”,旨在回应谢尔盖·拉戈金斯基(Sergey Lagodinsky)问询函中关于“欧盟需要专门的人工智能责任框架,而欧盟委员会决定正式撤回人工智能责任指令是令人遗憾”的相关表态。面对法无明文的现实状况,问答第二段采取了典型的法律涵摄的解释进路,强行将“智能体”拆解为“交互界面”和“底层GPAI”两要素,借此将其塞入《人工智能法案》的规制范围。


具体来说,在“智能体”未被《人工智能法案》单列为独立类别的情况下,借助“智能体”的“交互界面”和“底层GPAI”这两项连接要素,将“智能体”纳入“人工智能系统”和“通用人工智能模型”的定义范畴。


欧盟此举,可谓是一项权宜之计。考虑到《人工智能法案》刚刚尘埃落定,立法者为了维系欧盟法律的安定性和权威性,只能退而求其次。但这种“削足适履”的监管策略,也埋下了巨大隐患。具体来说,“智能体”的行为逻辑是不同的,其自主行动所产生的风险,绝非底层大模型所等同。


那么,将两者在法律上强行混同予以规制,未来势必会在侵权归责体系和合同违约认定中引发混乱。问题的症结并不在于智能体如何“套用”旧规则,而在于其独特的技术特质已然击穿了现有的法律预设空间,很可能导致风险错配与规制失灵。


第三段原文:


关于人工智能系统的规则,尤为相关的是《人工智能法案》第5条第1款第a项与第b项的禁止有害操纵与利用弱点规则。为遵守该规则,或须在智能体的设计和开发阶段,就(在产品中)设置安全防线,以此规避那些极易引发重大损害的禁止性行为。自2026年8月2日起,若特定智能体被归入“高风险人工智能系统”之列,则其须满足相关附加要求,以确保该智能体在预定用途下的安全性与可信度(参见《人工智能法案》第三章)


此外,若智能体的用途是为了与自然人互动或为了生成内容,则透明度规则也将适用(参见《人工智能法案》第50条)。为了让透明度规则落地,相关《行为准则》(Code of Practice)正在起草中。


专家释评:现行法“三板斧”(禁止行为、高风险附加义务与透明度要求)的失灵风险。


欧盟问答第三段聚焦于“核心适用规则”,旨在对谢尔盖·拉戈金斯基(Sergey Lagodinsky)问询函中关于“智能体的行动远远超出了法案关于人工智能“分析、内容生成或决策”的范畴,而这种自主行动的能力恰恰是区分人工智能代理的特征,而目前法案对人工智能系统的定义似乎未能充分涵盖这一点作进一步主动澄清。


该段回应明确列出了契合智能体的三项核心适用规则。规则之一是划定绝对红线,禁止智能体进行有害操纵或利用人类弱点。规则之二是以动态义务作为后备规则,一旦智能体构成了“高风险人工智能系统”,那么就会触发额外的合规要求。规则之三是用透明度义务匹配特定情形,在两类场景用途下强制要求满足该义务。


在该部分,欧盟试图用“三板斧”,亦即禁止性行为、高风险附加义务与透明度要求,来框定“智能体”。此种规制路径的逻辑起点,仍是传统的产品规制思维,试图在开发源头强行嵌入安全护栏。但这种构想极易在“智能体”面前失灵。


具体来说,以“预设用途”为关键的规制要素,这种法律适用思维在面对能够在运行中自主偏离目标的智能体的时候,无异于“缘木求鱼”。用固定的分类、固定的风险目录,去管动态的行为、动态的演进,注定收效甚微。


同样,透明度规则或许能够缓解启用阶段的人机信息不对称问题,但在“智能体”行为深不可预测的决策过程中,单单告知用户“你正在与人工智能交易”远不足以填补责任分配的鸿沟,更遑论真正的“消费者保护”。


第四段原文:


至于通常作为智能体底层架构的GPAI模型,在判定该其是否属于“具有系统性风险的模型”时,其自主程度或工具使用等因素,往往有决定性作用(参见《人工智能法案》第51条第1款第b项及附件XIII第e点)


此外,具有系统性风险的GPAI模型提供者,须承担风险管理义务,此等义务要求其须权衡模型的自主能力及代理型应用(例如,此等要求已在《GPAI行为准则》“安全与安保”章的措施5.1第7点,附录1.3.1第5点与第7点,附录1.3.3第1点、第4点与第12点,或附录3.2第二段中予以细化)


专家释评:从数算力到看能力:规制逻辑的实质纠偏。


欧盟问答第四段是对第三段问答的补充与展开,特别针对“高风险系统”和“智能体”的适用关于予以澄清。第四段示范了极具价值的监管转向信号。在判定模型是否具有系统性风险时,欧盟终于开始摆脱早期对“训练算力阈值”的路径依赖,转而将智能体的“自主程度”和“工具调用能力”作为关键衡量要素,并试图通过软法工具(《行为准则》)来细化落地。


这无疑是立法思路的一次实质性纠偏。面对智能体系统间交互可能带来的、呈指数级放大的级联风险,单纯死守算力无异于“盲人摸象”。唯有回归本质,将人工智能究竟“能做什么”纳入核心考量,才能穿透技术迷雾,更贴合真实的风险场景。换言之,“智能体”时代,立法监管的焦点正从既有的算力参数,转向实质性的能力认定。


第五段原文:


鉴于智能体之发展日新月异,欧盟委员会现阶段的监管考量仍是初步的。人工智能办公室(AI Office)正持续密切审视其发展态势,并在必要时考虑制定相关策略,以应对潜在风险。例如,人工智能办公室近期发布的关于“人工智能安全技术协助”的招标公告便已单列专项,专门负责评估智能体的安全性与安保性(safety and security)


专家释评:法律稳定性与技术演进的博弈:“监管留白”并非万能解药。


欧盟在问答的最后一段坦诚了欧盟对智能体的未来监管立场。其明确承认了目前法案的局限,同时明确为未来发展预留空间。欧盟坦承,现阶段的监管考量只是“初步性”的,言下之意,《人工智能法案》在面对技术演进的步伐确实存在一些掣肘指出。为此,欧盟试图通过人工智能办公室这一机构安排,为未来制定新策略预留了政策活口。


但这种“监管留白”背后,隐藏着一个难以调和的立法悖论:法律天然追求的安定性和可预期性,以“智能体”为典型的人工智能技术却生来就拥抱不确定性和颠覆性。


对这一问题,人工智能立法研究专家组在2026年3月23日发布的《中国人工智能立法的十大核心议题》中也已明确提出,即第五项核心议题——移动的靶心:立法遭遇技术“奇点”,规则如何追赶技术发展?而对这一问题,欧盟目前所持立场极可能陷入一种“西西弗斯困局”,在耗时费力历经谈判终于为“智能体”制定出相契合的规则之时,恐怕人工智能技术早就跃迁到下一个形态。在这场成文立法和动态技术的永恒赛跑中,欧盟并未真正颇具,一切才刚刚拉开帷幕。


本文来自微信公众号:Internet Law Review,作者:金晶、王天凡、高郦梅

AI原生产品日报频道: 前沿科技
本内容由作者授权发布,观点仅代表作者本人,不代表虎嗅立场。
如对本稿件有异议或投诉,请联系 tougao@huxiu.com。
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定