3-14

欧盟理事会推动简化AI监管规则,禁止AI用于生成色情内容

新闻图片

欧盟理事会3月13日就简化部分人工智能监管规则提案达成一致,主要涉及推迟高风险AI系统监管规则的适用时间、扩大企业监管豁免范围、强化AI办公室权力,同时新增禁止利用AI生成未经同意的性内容、私密内容及儿童性虐待内容的规定。

5 来源
监管简化的核心内容

欧盟理事会此次达成的一致立场涵盖多项重要调整。其中最引人关注的是将高风险人工智能系统监管规则的适用时间最多推迟16个月,这一延期旨在确保相关标准和工具准备就绪后再正式实施[1][2]。此外,提案还扩大了对部分企业监管豁免的适用范围,以减轻企业的合规负担[1][2]

同时,提案强化了欧盟委员会的人工智能办公室的权力,目的是降低治理方面的分散性,建立更加集中和高效的监管体系[1][2]。这些调整被视为《综合简化一揽子计划》的重要组成部分,目标在于在确保安全的前提下,避免过度的合规负担对欧盟产业竞争力造成损害[1][2]

禁止AI生成非法内容的新规定

在原有提案基础上,欧盟理事会增加了一项新的规定:禁止利用人工智能生成未经同意的性内容、私密内容及儿童性虐待内容[1][2]。这一新增条款是对现有AI监管框架的重要补充,体现了欧盟对保护公民隐私权和防止儿童被侵害的坚定态度[1][2]

该规定的通过标志着欧盟在应对AI可能带来的社会风险方面采取了更为积极的立场,将直接影响所有在欧盟境内运营的AI应用开发者和部署者[1][2]

推进立法程序与实施时间表

欧盟理事会表示,欧盟轮值主席国将与欧洲议会启动谈判,以推动该提案的后续立法进程[1][2]。这一步骤是将理事会的一致立场转化为正式法律的关键阶段,预计将在今后数月内进行密集谈判。

值得注意的是,欧盟《人工智能法》已于2024年8月1日正式生效[1][2],而其核心条款将于2026年8月2日全面生效[3]。当前正处于合规准备的关键阶段,各成员国和相关企业需要在这一期间完成必要的适应调整[3]

更广泛的AI监管框架

此次简化方案是欧盟AI治理体系的一部分。该法案采用基于风险的监管模式,将人工智能系统划分为禁止类、高风险、有限风险和最低风险四个等级[1]。高风险AI系统需履行一系列严格义务,包括风险管理、数据治理、技术文档保存、人类监督机制和上市后监测等[1]

此外,欧盟委员会已启动关于高风险人工智能系统分类的公众咨询,需在2026年2月2日前发布相关实施指导方针[2]。同时,欧盟还授权成立欧盟级监管沙盒,计划于2028年启动,以便对跨境部署的系统进行更加集中的监管[1]

本内容由AI生成