这是全球首部监管人工智能的法律,作为一项开创性的监管法,为人工智能技术制定了全面的规则。
遵循“基于风险”的考量
《人工智能法案》遵循“基于风险”的考量,这意味着对社会造成伤害的风险越高,规则就越严格。
新法律旨在促进私人和公共行为者在欧盟单一市场上开发和采用安全、值得信赖的人工智能系统,同时确保尊重欧盟公民的基本权利,刺激欧洲人工智能的投资和创新。
新法律根据风险对不同类型的人工智能进行分类。低风险的人工智能系统将面临最低的透明度要求,而高风险的人工智能系统则必须满足严格的标准才能获准在欧盟使用。
高风险人工智能系统涵盖自动驾驶汽车或医疗设备,根据它们对公民的健康、安全和基本权利构成的风险进行评估。此外,高风险人工智能系统还包括人工智能在金融服务和教育领域的应用,这些领域的人工智能算法存在偏见的风险。
某些人工智能应用,如认知行为操纵和社交评分,因其不可接受的风险而被直接禁止。立法还禁止将人工智能用于基于种族的预测性警务,以及根据种族、宗教或性取向等生物特征数据对个人进行分类的系统。
该法规还涉及通用人工智能(GPAI)模型。不构成系统性风险的GPAI模型将遵守有限的透明度要求。但是,那些被认为有系统性风险的模型必须遵守更严格的规定。
为确保有效实施,《人工智能法案》设立了多个管理机构,包括欧盟委员会内部的人工智能办公室,负责执行相关规则;一个由独立专家组成的科学小组,为执法活动提供支持;由成员国代表组成的人工智能委员会,就人工智能法案的一致应用提供建议;一个利益相关者咨询论坛,提供技术专业知识。
在违规处罚方面,违反《人工智能法案》的行为将被处以罚款,罚款额度为违规公司上一财政年度全球年营业额的一定百分比或预先确定的金额,以较高者为准。中小型企业(SME)和初创企业将面临相应比例的行政罚款。
新法规还要求,在公共服务部门部署高风险人工智能系统之前,各实体必须评估其对基本权利的影响。该条例要求提高高风险人工智能系统开发和使用的透明度。这些系统以及使用它们的某些公共实体必须在欧盟高风险人工智能系统数据库中注册。情绪识别系统必须在用户使用此类系统时告知个人。
《欧洲人工智能法》旨在促进私营和公共行为者在欧盟单一市场内开发和采用安全、可信赖的AI系统。同时,它旨在确保尊重欧盟公民的基本权利,并刺激欧洲在人工智能领域的投资和创新。人工智能法案仅适用于欧盟法律范围内的领域,并为军事和防御以及研究目的的系统提供豁免。
新法律根据风险将不同类型的人工智能进行分类。仅呈现有限风险的AI系统将承担非常轻微的透明度义务;高风险AI系统也可以获得授权使用,但需符合一系列要求和义务才能进入欧盟市场。例如,认知行为操纵和社会评分等AI系统将被禁止在欧盟使用,因为其风险被认为不可接受。该法律还禁止使用基于AI预测警务的画像系统,以及使用生物识别数据将人们根据特定类别(如种族、宗教或性取向)进行分类的系统。
为确保有效执行,设立了以下几个管理机构:
欧盟委员会内设的人工智能办公室,负责执行欧盟的统一规则 一个由独立专家组成的科学小组,支持执行活动 一个由成员国代表组成的人工智能委员会,为欧洲委员会和成员国在一致有效应用人工智能法案方面提供建议和协助 一个利益相关者咨询论坛,向人工智能委员会和委员会提供技术专业知识
在提供公共服务的某些实体部署高风险AI系统之前,需要评估其对基本权利的影响。《欧洲人工智能法》还增加了关于高风险AI系统的开发和使用透明度。高风险AI系统的用户,以及某些作为公共实体的高风险AI系统的用户,需要在欧盟高风险AI系统数据库中进行注册,并且使用情感识别系统的用户需要告知自然人在何种情况下被暴露于此类系统。
人工智能法案提供了一个创新友好的法律框架,旨在促进基于证据的监管学习。《欧洲人工智能法》创设了人工智能监管沙箱机制,这种沙箱为创新AI系统的开发、测试和验证提供了一个受控的环境,并且还应允许在现实世界条件下测试创新AI系统。
在欧盟议会主席和理事会主席签署立法法案后,该法案将在签署后几天内发布在欧盟的官方公报上,并在公布后二十天生效。新规定将在生效后两年开始适用,对某些具体规定有例外。
↓
长按二维码关注
华东政法大学中外法律文献中心