欧盟人工智能法生效,能引领全球规则吗?

来源:《财经》杂志 2024-08-14 19:08:59

来源 | 《财经》杂志 作者 | 樊朔 编辑 | 郭丽琴

 欧盟希望借人工智能率先立法,引领全球规则,却因在产业发展起步阶段就快速出台严格监管措施而招致广泛批评,法律的实际落地进程和实施效果还有待观察

欧盟又一次在立法速度上引领全球,这次是持续火爆的人工智能领域。但这些模糊的条款,最终将以何种方式落地,还未可知。

8月,全球首部全面监管人工智能的法律 ——《欧洲人工智能法》(European Artificial Intelligence Act,下称《AI法》)正式生效。

最引发关注的是,《AI法》的条款分阶段实施。8月1日是这部法律生效的日期,但仅有部分条款生效。据时间表,法案中规定禁止的做法将在生效6个月后适用;通用型人工智能的相关义务和规则将在8月1日起的12个月后适用;24个月后,该法案将完全适用,但部分高风险AI系统的规则将在36个月后开始适用。

这套号称史上“最严”的针对AI的全面监管规则,将AI产业链上的各主体均列入监管范畴,包括与欧盟市场有连接点的AI系统提供商、使用商、进口商、分销商和产品制造商等。

《AI法》还拓展了监管工具:不仅引入了以风险为导向的分级管理模式,还设计了“监管沙盒”,减少中小企业和初创企业的合规负担。锋利“牙齿”也引发关注:如违反相关条款,企业最高可能被处以3500万欧元(约2.7亿人民币),或上一财年全球年营业总额7%的罚款(以数额较高者为准)。

从《AI法》制定之初,欧盟便希望借此在AI领域进行规则引领。

《AI法》由欧盟数字事务负责人玛格丽特·维斯塔格于 2021 年 4 月公布,彼时她表示:“欧盟正在带头制定新的全球规范,以确保人工智能值得信赖。”欧盟委员会内部市场专员蒂埃里·布雷顿也在社交媒体上表示,该法“将成为帮助欧盟初创企业和研究人员引领全球AI领域竞赛的重要指南。”

但是,在AI产业发展尚属起步阶段就快速出台《AI法》,也招致了广泛批评。反对者认为,仓促尝试对基础模型进行监管,将会限制技术本身的使用。

对外经贸大学数字经济与法律创新研究中心主任许可认为,《AI法》逐步实施的条款,就是为了给予欧盟企业充分的缓冲期,这一点值得在相关立法时借鉴。

对条款研读之后,中国政法大学数据法治研究院教授,联合国人工智能高层顾问机构中方成员张凌寒表示,虽然《AI法》号称严厉,但有限的落地监管措施,以及创新的监管工具,都为欧盟的AI企业提供了一个必要的弹性发展空间,但也增加了非欧盟企业的合规成本。

金杜律师事务所合规业务负责人宁宣凤则认为,《AI法》的实际效果和影响还需待全部条款生效后,再结合彼时的AI产业发展与监管成果进行观察。对中国立法者的启示是,高风险AI系统在投入使用的全过程中,涉及多个相关主体,《AI法》基于相关主体的参与程度分别提出合规要求,并就相关主体违反规定的行为设置了罚款处罚。在宁宣凤看来,中国现行的《生成式人工智能服务管理暂行办法》主要以服务提供者为治理抓手。如果中国未来为AI立法,可考虑建立覆盖AI系统价值链中各方主体的责任机制,将更有助于划分各方主体责任边界,从而激发研发或服务动力。

欧盟立法的启示

欧盟在立法过程中经过了详尽、涵盖各方关切事项的讨论。这些内容以及整个立法的取向、思维,也给其他国家或地区带来了有价值的参考。

欧盟立法速度快,在国际上遭到诸多批评。

据媒体报道,欧盟立法者于 2023 年 12 月举行了马拉松式的谈判,以使这些规则获得通过。但批评者表示这些规则还不够完善,监管机构遗漏了企业执行法律急需的重要细节。一些专业人士估计,欧盟需要 60 到 70 项次级立法来支持《AI法》的实施。

参与起草《AI法》的欧洲议会助理凯·泽纳承认:“这项法律相当模糊。时间压力导致很多事情悬而未决。监管者无法就这些事情达成一致,因此更容易妥协。”

许可表示,对《AI法》最大的批评是其基于风险路径,缺乏对个人的赋权。此外,未来《AI法》的实施还需要面临大量和其他法律法规之间的协调问题。例如,与《通用数据保护条例》(GDPR)、《数字市场法》(DMA)、《数据治理法》(DGA)等法律规范的协调将产生诸多麻烦。此外,《AI法》作为一般法,需要考虑在多个领域实施的问题,包括金融、医疗、交通等领域。

“事实上,它带来的问题可能比解决的问题更多。”许可认为。

虽然遭遇批评,但《AI法》的立法思路则得到肯定,主要是考虑到了产业的整体发展进程。

张凌寒指出,虽然号称史上最严格的AI监管法律,但实际上《AI法》的监管措施有限,且其在制定过程中也考虑到促进欧盟AI行业的整体发展。

具体而言,张凌寒认为, 第一、《AI法》对一部分AI系统的开发利用作出了豁免规定,包括专门为军事、国防或国家安全开发的系统、专门为科学研究而开发的系统以及免费和开源的人工智能系统。

第二、《AI法》提出了一系列支持举措,以减轻欧盟企业特别是中小型企业的行政和财务负担。

第三、《AI法》分阶段的合规时间表以及其所创设的监管沙盒制度,分别为欧盟AI产业发展提供了一定的时间与空间。

第四、《AI法》的域外效力将增加非欧盟企业的合规成本,由此将限制非欧盟企业扩张欧洲市场的意愿,这在一定程度上能够减少欧盟企业的竞争压力。

许可认为,《AI法》梯次实施可能出于两个原因。一方面,人工智能是一个快速发展的法规领域,法律生效后如何回应科技与产业更迭仍有很大不确定性,因此需要给产业留出一定的时间,让企业对自身技术路线和商业模式进行调整;另一方面,《AI法》是一个协同共治的规则。法律要转化成技术语言和行业标准,必须要通过监管部门与企业的合作,这也要求给企业和监管部门预留风险交流和沟通协调的时间。

在北京师范大学法学院博士生导师、中国互联网协会研究中心副主任吴沈括看来,《AI法》对于人工智能的研发和产业应用,建构了以透明度和公平性为核心逻辑的监管体系要求。对于AI的研发方向以及市场应用会产生长期的影响,也会改变欧洲的市场布局。

那么,《AI法》设计的两个重点监管工具,会给其他国家立法者带来哪些启示?

工具一:风险分级管理

《AI法》的整体监管架构,围绕人工智能应用四类由高到低的风险等级展开,类似于一个“风险金字塔”,分别建立相应的风险防范机制。

按照人工智能对用户和社会的潜在影响程度分为四级,分别为:不可接受风险类、高风险类、有限风险类、最小风险类。

最极端的一级是造成不可接受风险的人工智能系统或应用,比如被认为对人们的安全、日常生活和基本权利构成明显威胁,将被完全禁止使用。对于这类AI系统开发者,将最高被处以上一财年全球营业额6%的处罚。(详见:中欧AI立法同期突破:为ChatGPT设置“红绿灯”?)

人工智能四个风险等级,来源:欧盟委员会官网

对于高风险类人工智能系统,《AI法》规定了一套覆盖入市前到入市后的全流程风险管理系统。在入市前,企业需要建立和维持风险管理系统,进行数据治理,制定并更新技术文档,并向监管部门提供所有必要的信息等。

吴沈括介绍,风险分类分级作为基本的方法论,不同国家和地区的立法当中都会有不同程度的体现。其重要意义和制度价值在于确保监管的相称性——在满足核心的监管关切和战略诉求的同时,为AI发展提供必要的弹性发展空间。

在中国,风险导向的分类分级制度在有关算法与生成式AI监管中也有体现。2021年9月,国家网信办发布《关于加强互联网信息服务算法综合治理的指导意见》,明确提出推进算法分级分类安全管理,有效识别高风险类算法,实施精准治理。2023年7月,国家网信办等部门发布的《生成式人工智能服务管理暂行办法》也提出,对生成式人工智能服务实行包容审慎和分类分级监管。

宁宣凤认为,风险分级分类策略是在未充分掌握AI技术可能引发的社会风险的情况下,基于对AI技术的现实监管需求而产生的一种递进式监管策略。

许可认为,分类分级意味着监管部门必须按照一定的比例去分配监管资源。未来,AI会像Office软件一样嵌入到千行百业中,所以分级分类仍然应该是AI监管的基本思路之一。但是,当前基于风险的分类分级应当予以扬弃,因为其只看到了AI的静态风险而没有看到动态收益。例如,高风险的AI系统,往往意味着其收益也高。

《AI法》中的分级分类与中国现有的分级分类逻辑有所不同。许可介绍,分类分级在英语中是一个词——classification。但在中国,分类分级是两个概念:“分类”和“分级”。较为特殊的是,随着通用人工智能的来临,中国此前政策中对AI应用场景的经典分类方法可能需要调整。例如,《互联网信息服务算法推荐管理规定》中规范了5类主要“应用算法推荐技术”,包括生成合成类、个性化推送类、排序精选类、检索过滤类、调度决策类等信息服务。但生成式AI已经无法沿用这一思路,大模型可以应用在所有领域中。

许可介绍,在分类调整的情况下,监管部门仍然可以对人工智能进行分级管理。中国采取的是基于AI影响程度的分级,例如《生成式人工智能服务管理暂行办法》对提供具有舆论属性或者社会动员能力的生成式人工智能服务进行了分类分级,对该类服务提供者提出了算法备案与大模型备案的要求。其逻辑在于部分AI系统对国家和社会秩序有着重大影响,因此监管部门会采取不同的监管措施。但许可认为,这并不意味着未来中国的AI立法会延续同样的监管措施,但可以预见的是,监管部门会综合采取各种因素去判断AI系统的影响程度,从而设定与之相对应的监管措施。

张凌寒也表示,随着生成式AI的通用性加强,中国的分级分类制度需要随着技术的发展及时调整。

工具二:“监管沙盒”制度 

延续此前的草案,《AI法》引入了金融科技监管中常见的“监管沙盒”制度。

所谓“监管沙盒”,即创造一个受监督、可控的安全空间,让企业尤其是中小企业和初创企业进入“沙盒”,在监管机构的严格监督下,积极参与创新AI系统的开发和测试,其后将这些AI系统投放到服务市场。如果开发测试过程中发现重大风险,则应立即缓解风险,倘若不能缓解或控制风险,便应暂停开放测试。

“监管沙盒”最早于2015年由英国金融行为监管局(FCA)创设。许可介绍,“监管沙盒”制度是欧盟支持创新的举措,意在风险可控的条件下实现科技创新。“监管沙盒”可以创立一个可控环境中,对一些AI应用采取有特定目的的监管措施,给可能存在风险的AI一个试错的空间。

吴沈括也表示,“监管沙盒”是《AI法》的特色之一。面对AI等新型技术、应用,能帮助或促进欧盟监管者和被监管者之间持续的对话,以解决技术发展与监管关切之间的动态平衡。

目前,多个欧盟成员国正在试点AI领域的“监管沙盒”制度。

法国自2022年开始试点“监管沙盒”制度,重点集中在教育行业,目前共有5家企业参与试点。

2024年5月,西班牙对实施“监管沙盒”征求意见。西班牙明确了生物识别、关键基础设施以及教育培训等8个领域的高风险人工智能系统、通用人工智能以及基础模型适用于“监管沙盒”制度,并对项目准入、文件提交、风险管理、准出条件等进行了更加细化的规定。

挪威、瑞士也均有类似试点。例如,挪威公共交通提供商Ruter基于“监管沙盒”,对其上线的出行推荐AI算法进行风险评估。瑞士的5家试点企业分别从事无人驾驶农机、无人机、机器翻译、作业纠错和停车调度等领域的研发。

在中国,“监管沙盒”制度在金融科技监管中也有应用。2019年1月31日,国务院在《关于全面推进北京市服务业扩大开放综合试点工作方案的批复》中,同意北京市在依法合规的前提下探索“监管沙盒”机制。2019年12月5日,中国人民银行批复支持北京市率先在全国开展金融科技创新监管试点,探索中国版“监管沙盒”。

在许可看来,“监管沙盒”不只是技术创新,也是监管创新。这一制度实际上在做两方面的实验:一是对被监管者的实验性治理;二是让监管者在沙盒之内测试监管规则的合理性和必要性。一个成熟的“监管沙盒”是监管者与被监管者的协同创新,也即监管者根据“沙盒”的反馈去调整自己的监管规则,被监管者也根据“沙盒”的测试和验证的情况,去调整自己的商业模式和技术发展方向。

但张凌寒提醒,“监管沙盒”对监管机构的监控和评估能力提出了较高的要求,其实际效果和行业影响有待持续观察。

全球影响仍待观察

欧盟一直在数字立法方面走在全球前列,并试图通过“布鲁塞尔效应”向全球输出标准。

“布鲁塞尔效应”指欧盟在监管自己内部单一市场的过程中,跨国公司通过合规接受了这些标准,并逐渐让欧盟标准成为世界标准。GDPR的实施便是一个很好的例子。GDPR是管理欧盟个人数据隐私的准则和政策,于2018年5月25日生效。跨国科技公司基于GDPR的要求进行数据处理的合规,并将这一标准用于欧盟外的数据处理中,使得欧盟标准成为世界标准。

张凌寒认为,欧盟作为AI的重要市场,其自身AI产业相对薄弱,《AI法》试图去重现GDPR全球治理框架,进一步延续“布鲁塞尔效应”,进而获取全球产业竞争的谈判筹码和再次利益分配。对此,全球都在观察,《AI法》是否能达到预期。

《AI法》的落地有一个前提,欧盟本土科技公司和跨国科技公司都愿意接受合规挑战。

“数字欧洲”组织总干事塞西莉亚·博内菲尔德·达尔警告称,这种做法导致了糟糕的监管,将阻碍欧洲与美国在未来新设人工智能公司领域的竞争。“欧盟公司的额外合规成本使我们的利润进一步下滑,”她表示,“当世界其他国家都在招聘程序员时,我们却在招聘律师。”

张凌寒表示,《AI法》的生效给在欧洲运营的科技企业带了多维度的挑战,其在AI产品研发、测试、部署和应用等各环节进行了相应的规定。在她看来,科技企业不仅要加大合规成本的投入,以确保构建与欧盟接轨的合规体系,还需持续对目标市场进行评估监测,在研发过程、功能设计上进行必要调整,以满足《AI法》对于安全性、透明度等方面的高标准要求。

宁宣凤认为,最直观的是,就高风险AI系统提供者而言,《AI法》的影响将至少体现在相关主体适应相关监管要求的合规成本当中;就不可接受风险的AI系统而言,相关主体甚至无法继续提供相关系统,进一步可能造成相应的经济损失。

那么,中国的AI企业该如何应对?

张凌寒建议,在合规层面,中国企业首先应当全面评估《AI法》的要求,及时动态调整合规策略,并建立内部合规管理体系;其次应提升技术创新能力,针对AI系统的技术特点和产品功能,制定有关风险预案;最后,应加强国际合作与交流,密切关注海外立法和执法动态,提升国际竞争力。

许可则认为,欧盟重现GDPR的“布鲁塞尔”效应不会成功。GDPR成功有三个前提:第一是广泛的管辖权,第二是高标准的法律要求,第三是高额的罚款。目前来看,虽然这三个方面《AI法》与GDPR具有一致性,但一个重要的不同是数据是需要跨境流动的,而人工智能系统是可以分割的。数据的流动性使得监管机构可以通过控制欧盟的数据流入和流出,从而间接地对全球产生影响,但这一点在AI监管中无法体现。AI企业完全可以设立出可分割的市场,在欧盟以外发展AI产业时,不需要遵守欧盟的规则。

许可提醒,需要注意《AI法》有两个豁免:一是对于AI研发的豁免。很多企业完全可以做到在欧盟研发,在欧盟外提供服务。二是开源豁免,这仅仅限制了一些闭源AI系统。例如,谷歌可以通过开源的人工智能,间接影响欧盟市场的产品和服务。

许可还指出,GDPR赋予了个人以非常强的权利,这些私权推动了个人和NGO发起司法诉讼,从而通过诉讼的方式实现监管。而《AI法》本质上规定了AI系统的产品责任,个人没有被赋予新的权利,因此其执行只能依托欧盟的行政执法,由此基于主权原则,相关执法实际上只能在欧盟境内进行,这也为《AI法》的全球影响力带来挑战。

但在美法律学者孙远钊认为,《AI法》的合规要求,对企业的运营可能会造成一定程度的不方便,但任何的合规要求莫不如此。从积极的角度来看,这在一定程度上或可避免重大安全事故发生,以及万一不幸发生了事故,能在最短时间集思广益,以期共同找出问题所在和解决之道,这样也有助于建立社会的信心,并促进整体市场健康有序发展。

樊朔 /文