这是用户在 2024-3-19 17:05 为 https://km.woa.com/articles/show/599248 保存的双语快照页面,由 沉浸式翻译 提供双语支持。了解如何保存?
十个问题带你读懂《欧盟人工智能法》
jeffcao
2024-03-19 15:14
52
0
0
AI摘要

313日,经过3年立法流程,欧盟议会最终审议通过了全球第一部全面性的AI立法《欧盟人工智能法》,为该法案的最终出台铺平了道路。该法案预计将在今年年中正式生效,并于生效2年后全面施行。该法案将同时约束欧盟境内和境外的企业,只要他们向欧盟市场提供AI系统或其AI系统的使用影响了欧盟境内的消费者。该法案不仅禁止提供、使用特定的AI系统,而且重点给高风险AI和现在热火朝天的通用AI模型的开发者、提供者施加了一系列强制性义务和监管要求,同时针对进入欧盟市场的高风险AI构建市场准入壁垒,预期将对全球AI产业发展产生显著影响。腾讯研究院高级研究员曹建峰(jeffcao)欧盟AI法案十问十答形式,对其核心内容和影响进行了分析,供各位同事工作参考。


1、《欧盟人工智能法》是什么?现在处于什么阶段?

《欧盟人工智能法》(EU AI Act)被认为是全球第一部全面性的AI监管立法,采取了传统产品安全监管的思路,将AI系统作为数字化产品进行安全监管。旨在在AI创新和发展过程中,保护个人的安全、健康和基本权利等合法权益,从而维护消费者安全。欧盟立法者认为,随着AI时代的到来,AI技术开始广泛应用,其安全风险和负面影响也开始出现,因此需要建立新的监管规则来保护个人合法权益。

今年313日,在经过了3年的立法流程之后,欧盟议会审议通过了该AI法案,为其最终出台铺平了道路。预计在接下来几个月内,该法案在走完几个形式流程之后将正式对外公布并生效,并在生效24个月后(大约2026年中)开始全面施行,而针对通用目的AI(即当前主流的AI大模型)的规则将在12个月后提前施行。


2、《欧盟人工智能法》的监管思路和监管重点是什么?

作为产品安全监管之法,《欧盟AI法案》采取了基于风险的监管思路,AI应用的风险越高,监管要求越严格AI系统和应用按照风险高低分为四类:

1)不可接受风险AI这类AI应用是被禁止的,这包括特定的人脸识别应用和生物特征分类系统、在工作场所和学校使用的情绪识别系统、社会评分系统、操纵人类行为或利用用户弱点的AI应用等。

2)高风险AI主要是指会给消费者的健康、安全和基本权利等带来严重伤害风险的AI系统;高风险AI系统以清单方式进行维护和更新,进入高风险清单的AI应用原则上都属于高风险AI系统,法案列举的AI系统的高风险应用领域包括:关键基础设施、教育和职业培训、雇佣、基本的私营和公共服务(如医疗、银行等)、执法、移民和边控、司法、民主程序(如影响选举)等诸多领域。

3)有限风险AI这类AI的风险相对较低,如聊天机器人、deepfakeAIGC应用等,通常只需要遵守一定的透明度规则即可。

4)最小风险AI这类AI包括了绝大多数的AI应用,基本上没有值得法律关注的风险,如垃圾邮件过滤系统、网络游戏中的AI应用等,所以不受法案约束。当然,这类AI的提供者也可以选择遵守自愿性的可信AI要求和行为准则。

5)此外,还有一类受到法案规制的AI模型是,通用目的AI模型:主要是指当前主流的大模型和生成式AI,这类AI模型具有比较强的通用性和泛化能力,如GPT模型、Claude模型、Gemini模型等。

除了被禁止的AI应用以外,《欧盟AI法案》重点监管高风险AI系统和通用目的AI模型,针对这两类AI的监管要求最为细致和严格。


3、法案是如何监管高风险AI系统的?

高风险AI是法案重点规制的对象。首先,法案针对高风险AI系统提出了一系列强制性要求,涉及风险管理机制、数据和数据治理、技术记录、日志要求、透明度和信息提供、人类监督以及准确性、鲁棒性和网络安全性等7大方面的要求。这些要求可以说是非常具体、明确,但后续落地仍然需要配套标准的支持。

其次,这些强制性要求主要由高风险AI系统的提供者、部署者、进口商、经销商等主体来落实,法案给这些主体分别施加了相应的强制性义务,其中,高风险AI提供者(即开发者)的义务最多最重。值得一提的是,特定高风险AI系统的部署者需要在使用前开展基本权利影响评估(FRIA),这类似于GDPR中的数据保护影响评估(DPIA)。

第三,法案为高风险AI系统建立了前置审批。这意味着,高风险AI系统在上市前,其提供者需要进行合规评估流程(包括内部质量控制和第三方评估两种方式),表明其AI系统符合可信AI的强制性要求,以获得有资质机构的认证,并给其AI系统贴上欧盟CE标志(证明产品合规或质量的一种认证标志)。如果对AI系统作出了实质性修改,则需要重新申请合规评估。合规评估流程并不是一刀切,而是针对不同类型的高风险AI采取不同的机制,确保具有一定的灵活性。而且欧盟境内AI部署者(即商业使用者)使用外国开发者提供的高风险AI,也必须确保该AI开展了适当的合规评估流程,取得了欧盟CE标志,否则不得进行商业使用。这意味着,国外的高风险AI如果没有获得欧盟CE标志,将不能在欧盟市场提供及使用。

最后,法案还为高风险AI建立了上市后的跟踪观察义务。高风险AI的提供者需要在AI生命周期中开展监测,向指定的市场监督机关报告重大事故或不合规情况,并采取改正措施。

总之,法案针对高风险AI建立了事前事中事后全方位的监管要求,这和欧盟对汽车、机械设备等传统产品的安全监管思路是一致的。


4、法案对AIGC类应用提出了哪些新要求?

法案对一般性的AIGC应用采取了相对宽松的监管方式,以透明度要求、检测识别、避免滥用为主。

1chatbot应用:对于聊天机器人等AI应用,需要披露与用户交互的对象是AI,而非真人。

2AIGC内容:文本、音频、视频等各类AIGC内容,需要以合适方式打标(例如水印),表明是由AI系统生成。

3deepfake应用:对于涉及真实存在或真实存在过的人物、事件、活动等的deepfake(例如将已故演员在电影中复活、以视频方式复原重大历史事件),需要以合理方式进行披露,表明并非是真实发生过的。

4)具有舆论影响的AI生成文章:需要披露是AI生成,不能误导公众说是真人写的。


5、法案对AI大模型有何监管要求?

通用目的AI模型(即当前主流的AI大模型)是法案的重点监管对象,是在立法过程中新增的,目的是将新兴的通用AI领域纳入监管范围,确保AI立法的完备性。注意,这里是直接规范通用AI模型本身,如果通用AI模型被集成到了其他的受约束AI系统,则会受到相应的监管。

1)通用AI模型(general purpose AI model)定义:使用大量数据通过自我监督进行大规模训练的AI模型,表现出显著的通用性,能够熟练地执行广泛的不同任务,无论该模型以何种方式进入市场,并且可以集成到下游多种系统或应用中。这个定义基本上就是为约束OpenAIClaude、谷歌等美国主流AI公司的最新生成式AI模型量身定制的。

2)通用AI模型提供者的相关透明度义务:第一,记录并及时更新模型的相关技术文档;第二,向下游AI开发者提供相关信息和文档;第三,制定遵守欧盟版权法的政策,尤其是遵守关于文本与数据挖掘的版权例外规定;第四,记录并公开提供用于通用AI模型训练的数据内容的详细摘要(目前美国主流的AI企业都没做到)。

3)具有系统性风险的通用AI模型提供者的义务:那些最强大的的前沿AI模型(如GPT-4Claude 3等)的开发者需要遵守额外的强制性义务,因为这些最前沿的AI模型被认为具有系统性风险,可能导致重大事故,或被滥用来开展大规模网络攻击等。具有系统性风险的通用AI模型的一个判断标准是算力使用情况,如果训练使用的算力超过了10^25 Flops(每秒浮点运算次数),则通常会被认为具有系统性风险。具有系统性风险的通用AI模型提供者需要履行一些额外的义务,包括:开展模型评估、包括对抗测试,以识别、消除系统性风险;评估、消除欧盟层面可能的系统性风险;向主管部门报告严重事故(导致死亡、重大的健康或财产损害等)及应对措施;确保模型及其相关基础设施具有较高程度的网络安全水平;披露模型的能源使用情况。

最后,关于通用AI提供者如何落实这些义务,在统一的标准出台之前,欧盟将先制定相关的行为守则(code of practice),帮助开发者理解和遵守相关义务。


6、法案有哪些支持AI技术创新和应用的举措?

法案在设定严格监管标准的同时,也希望通过一些便捷化的举措、豁免和例外来促进AI创新发展和部署使用,尤其是对中小微企业和初创企业提供支持。

第一,法案提出了AI监管沙盒机制,旨在支持高风险AI在不能完全满足法案监管要求的情况下,在一定范围内先行应用。AI沙盒监管机制类似于网络游戏的内侧,发生于正式投放市场或投入使用之前,在监管部门提供的一个受控环境中,在有限的时间内,对AI系统进行开发、训练、测试和验证等,以促进AI创新和部署应用。AI开发者可以向监管部门申请开展沙盒测试,与主管部门商定沙盒计划,包括可以在沙盒中受监督的现实世界条件下进行测试。而监管部门将对AI企业提供指导、监管预期、监督和指导,以识别、控制潜在风险,支持AI监管沙盒的有效运作。这一机制对AI领域的中小微企业和初创企业较为有利,因为可以显著降低合规成本。

第二,除了AI监管沙盒支持的AI试点,法案还允许在真实世界条件下对高风险AI系统进行测试。企业在得到监管部门同意后即可按照要求开展相关测试。

第三,法案对一些AI系统提提出了合规豁免。比如,用于科学研发目的的AI系统不受法案约束。免费开源模型的提供者被豁免了法案中的大部分义务。法案的相关义务也不适用于组织内部的或上市前的AI研究、开发、测试和原型活动。


7、法案如何落地?不遵守有什么后果?

法案共包括113条,以及13个附件,其结构和制度非常复杂且涉及复杂的AI技术问题,预计落地难度不小,企业的合规负担和合规成本预期会很高。为了确保法案能最终落地:

第一,法案建立了包括欧盟AI办公室(AI Office)、欧盟AI委员会(AI Board)、咨询委员会(Advisory Forum)、中立专家组成的科学委员会(Scientific Panel)等层次化治理组织,为法案落地提供执行和智力支持;

第二,法案中的强制性要求的落地后续需要出台大量的配套标准,这将由监管部门和相关的标准化组织来共同推进;

第三,针对高风险AI的合规评估流程,后续需要获得资格的第三方机构来支持落地。

此外,如果AI提供者、部署者等主体未能遵守法案的强制性要求,将面临高额罚款,其中提供或使用禁止使用的AI系统将面临最高全球年收入7%的罚款,违反高风险AI的相关强制性义务将面临最高全球年收入3%的罚款。而且,不合规的AI模型和系统将被要求在欧盟市场停止流通、召回或禁用等。


8、法案对消费者和用户提供了哪些救济?

法案给消费者和用户主要提供了两项救济。一是消费者可以向主管部门作出投诉,从而触发对AI企业的调查程序。

二是法案赋予了消费者就影响其合法权益的AI决策获得解释的权利。这主要是针对使用高风险AI系统的场景,如果高风险AI系统作出的决策对消费者的健康、安全或基本权利产生了不利影响,则消费者有权从AI部署者那里获得关于AI系统在决策程序中的作用以及所作决策的主要因素的清晰且有意义的解释。这被称为算法解释权。


9、如何看待法案的未来影响?

预计法案将在今年年中正式生效,行业还有一到两年的缓冲期来为合规做好准备工作,因此法案的影响不会一下子显现。

第一,由于法案具有长臂管辖效力,能够约束到在欧盟市场上市或使用的AI系统的外国开发者,因此未来受影响最大的将是美国的AI企业,尤其是在现在主流的AI大模型领域。这些AI企业目前的很多做法都不符合《欧盟AI法案》的要求,未来如果不采取合规措施(包括在欧盟设立授权代表机构以开展合规工作),将面临市场退出风险或巨额罚款。

第二,《欧盟AI法案》的合规难度和成本比之GDPR有过之而无不及,这是因为AI技术及其应用更为复杂和专业。可以预见,这将在欧盟创造一个专业化的、有利可图的AI合规服务市场,但却可能抬高进入AI领域的门槛,最终可能扭曲大企业和小企业之间的竞争,将资源相对较少的中小企业排挤出市场,进而阻碍AI领域的创新和发展。

第三,法案通过构建市场壁垒,迫使想进入欧盟市场的外国AI开发者满足欧盟的监管标准。未来法案正式施行后,在高风险AI领域,所有想进入欧盟市场的AI系统都需要获得欧盟CE认证标志,否则将难以进入欧盟市场。这种市场准入壁垒将迫使中国、美国的AI企业满足欧盟标准,从而达成欧盟希望为全球AI监管树立标准的目的。


10、法案对公司有什么影响?我们应如何看待?

目前看,公司尚未在欧盟市场提供或使用高风险AI系统,因此未来《欧盟AI法案》实施后对基本不会对公司产生太大影响。即使将来面向欧盟市场在游戏、社交等公司产品中提供大众化的AIGC类应用,一般也只需遵守内容打标、AI披露等透明度要求,而不会面临市场准入壁垒。如果公司打算面向欧盟市场提供高风险AI和通用AI模型,则需要满足更严格的监管要求。

此外,考虑到相关部委已启动我国的人工智能立法,而且国内学者对AI立法呼声很高,后续我们需要密切关注《欧盟AI法案》对国内AI监管的可能影响,不排除后续国内立法借鉴欧盟的AI监管做法,给国内AI领域带来更多监管压力。AI治理和监管成为全球议题的情况下,欧盟、美国提供了AI治理和监管的两个样板。欧盟采取了统一的严格监管,设置了市场准入壁垒;而美国的AI监管相对宽松,以软性监管措施和行业自律为主,通过监管优化甚至松绑鼓励、支持AI创新。比较而言,美国的模式更加可取。

更新于:2024-03-19 15:14
微信扫一扫赞赏
转载
收录
反馈
评论 0 智能排序
评论
表情
图片
更多功能
已到底部
AI助手
收起
代码说明
代码注释

扫一扫安装手机KM