欧盟规划以风险为基础的AI规则,将罚款设置为高达全球营业额的4%,每次泄露草案

2021-04-14 21:28:48

调节AI的计划一直在卡上。回到2020年2月,欧盟委员会出版了一份白皮书,素描计划的人工智能调节所谓的“高风险”应用。

在欧盟立法者正在与部门焦点进行到目前为止 - 设想某些行业,如能量和招聘等载体。然而,根据泄露的草案,这种方法似乎已经受到了重新要求 - 这不会限制对特定行业或部门的风险的讨论。

相反,重点是对高风险AI应用的合规性要求,无论它们都可能发生(武器/军用用途都被特别排除在外,因为这种用例落在欧盟条约之外)。虽然它从这个草案中没有大量清楚,但完全如何定义“高风险”。

委员会的总体目标是通过遵守“欧盟价值观”的合规性检查和余额来提高AI的公众信任,以鼓励吸收所谓的“值得信赖”和“以人为本”的AI。因此,即使委员会仍然需要采用“高风险”的AI申请,未被视为“高风险”的制造商仍然被鼓励采用“适用于高风险AI系统的强制性要求”的行为守则。

该监管的另一个块涉及支持Bloc推动会员国中AI开发的措施,以建立监管沙箱计划,其中可以追溯起动和中小企业,以便在将其推向市场之前支持开发和测试AI系统。

主管当局“应赋予与参与沙箱的实体人工智能项目的酌情权力和比例杠杆行使,同时完全保护当局的监督和纠正能力”,说明。

根据计划的规则,那些打算应用人工智能的人需要确定特定用例是否是“高风险”,从而需要进行强制性,预先市场的合规性评估。

“AI系统的分类为高风险应基于其预期目的 - 这应该是指使用AI系统的用途,包括特定的上下文和使用条件和 - 并且由两个步骤确定考虑到是否可能造成某些危害,如果是这样,如果是这样,可能危害的严重程度和发生的可能性,“在草案中运行了一个争论。

“AI系统的分类作为本规例的目的的高风险可能并不一定意味着在部门立法的标准下,整个系统的系统或产品的整体将被视为”高风险“, “该文本还指定。

与高风险AI系统相关的“危害”的例子在选秀中列出:“人的伤害或死亡,财产损害,社会的全身不利影响,对提供基本服务的重要中断普通的经济和社会活动的普通行为,对金融,教育或专业机遇的不利影响,对公共服务的获取和任何形式的公共援助的影响,以及对[欧洲]基本权利的不利影响。“

还讨论了高风险应用的几个例子 - 包括招聘系统;提供对教育或职业培训机构的访问的系统;紧急服务调度系统;信誉评估;涉及确定纳税人资助的福利分配的系统;在预防,检测和起诉犯罪周围申请决策系统;和用于协助法官的决策系统。

只要合规要求 - 如建立风险管理系统并开展市场后监督,包括通过质量管理体系 - 达到此类系统,这些系统不会被禁止在立法计划下的欧盟市场。

其他要求包括在安全领域,并且AI在绩效方面取得了一致性 - 以规定向“违反义务”而非违反义务的任何严重事件或任何故障,违反义务“的概况意识到15天后。

“高风险的AI系统可以放在Union Market上或以其他方式投入到符合强制要求的情况下,”文本说明。

“应遵守AI系统的预期目的,并根据提供者建立的风险管理系统,遵守或以其他方式投入或以其他方式投入或以其他方式投入使用的高风险AI系统或以其他方式投入使用。

“除此之外,提供商确定的风险控制管理措施应基于适当考虑由强制性要求的合并应用所产生的效果和可能的相互作用,并考虑到普遍承认的本领域,也包括反映在相关的统一标准或普通规范中。“

某些AI“实践”列为根据计划法第4条禁止的,根据计划法的第4条,包括(商业)大规模监测系统和可能导致歧视的通用社会评分系统。

旨在操纵人类行为,决策或意见的AI系统(如通过黑暗模式设计UIS),也列为根据第4条禁止;与使用个人数据生成预测的系统是(不利地)针对人物或人群群体的漏洞。

休闲读者可能会假设规定禁止行为广告等行为广告的行为广告(基于人员跟踪) - AKA像Facebook和Google等公司的商业模式。然而,假设Adtech Giants将接受他们的工具对用户产生了有害影响。

相反,他们的监管规避策略是基于声称对方的极地;因此,Facebook的谈论“相关”广告。所以文本(书面形式)看起来像是(又人)更加长的法律战斗的食谱,以试图让欧盟法律坚持与科技巨头的自我诠释。

禁止做法的理性在草案的早期协奏曲中总结 - 哪些国家:“应该承认人工智能可以实现特别有害的新操纵,上瘾,社会控制和不分青红皂白的监督实践,并且应该被禁止违反尊重人权,自由,民主,法治和尊重人权的联盟价值观。“

值得注意的是,委员会避免提出禁止在公共场所的使用面部承认 - 由于去年年初的泄漏草案,在去年的白皮书之前,它显然已经考虑了,而是从禁令的禁止被引导之前。

在公共场所的泄露草案“远程生物识别”草案中,以“通过通知机构的参与更严格的符合性评估程序” - AKA一个“授权程序解决了该技术使用所暗示的具体风险”并包括强制性数据保护影响评估 - 对高风险AIS的大多数其他应用(允许通过自我评估达到要求)。

“此外,授权当局应考虑评估由针对特定目的的系统的不准确性造成的伤害的可能性和严重程度,特别是在年龄,种族,性别或残疾方面,违反了草案。 “考虑到尤其是民主和公民参与,还应考虑社会影响,以及在参考数据库中包含人员的方法,必要性和比例。”

AI系统“可能主要导致个人安全的不利影响”,也需要作为合规过程的一部分进行这种更高的监管兼容。

设想的所有高风险AIS的符合性评估系统正在进行,草案注意:“无论何时发生变化,AI系统都会妥善进行新的符合性评估,这可能会影响系统与本规则的遵守情况或当系统的预期目的发生了变化。“

“对于在被置于市场或投入服务之后继续”学习“的AI系统(即,他们自动调整函数如何进行)变化,算法和尚未预先确定和评估的性能符合性评估应导致AI系统的新一致性评估,“它增加了。

Carrot for兼容的业务是为了展示'CE'标志,以帮助他们赢得Bloc的单一市场的用户信任和无摩擦接入。

“高风险的AI系统应承担CE标记,以表明他们与本规定的符合性,以便他们可以在联盟内自由移动,”文本说明,补充说:“”会员国不应该为市场上的障碍或者造成障碍或者投入符合本规定规定要求的AI系统的服务。“

并寻求对某些做法进行禁止建立一个泛欧盟规则,以安全地将“高风险”AI系统带入市场 - 与预期的提供商(主要是自我)评估和履行合规义务(如围绕质量)用于训练模型的数据集;记录保存/文件;人类监督;透明度;准确性在推出这样的产品进入市场并进行正在进行的市场后监督 - 所提出的监管旨在缩小AI的风险曾经欺骗人。

它通过建议旨在与自然人互动的AI系统(AKA语音AIS / CHAT BOTS等)的“统一透明度规则”来实现这一点;对于用于生成或操纵图像,音频或视频内容(AKA DeepFakes)的AI系统。

“旨在与自然人互动或产生内容的某些AI系统可能会对冒险或欺骗的特定风险造成特定的风险,而不管他们是否有资格作为高风险。因此,在某些情况下,这些系统的使用应受特定的透明度义务,而不会妨碍高风险AI系统的要求和义务,“营业。

“特别是,应该向自然人通知他们与AI系统进行交互,除非这是明显的情况和使用的背景。此外,使用AI系统生成或操纵图像,音频或视频内容的用户明显类似于现有人,地点或事件,并且将被错误地出现到合理的人是真实的,应该披露内容已经人工创建或通过标记人工智能产出并披露其人工来源来操纵。

“此标签义务不应申请使用此类内容的使用是为了保障公共安全的目的,以便行使讽刺,模仿或艺术和科学自由等人的合法权利或自由等待适当的第三方权利和自由的保障措施。“

虽然建议的AI政权尚未被委员会正式揭晓 - 所以细节可能在下周之前仍然可以改变 - 一个主要的问号界限,关于如何全新的(通常复杂)人工智能的特定应用程序有效监督和任何强制执行的违规行为,特别是在执行欧盟的数据保护制度(2018年开始申请的持续缺陷)。

因此,虽然高风险AIS的提供者必须承担将其系统置于市场上的责任(因此,遵守所有各种规定,也包括在欧盟数据库中注册高风险AI系统,委员会打​​算维持) ,该提案在会员国手中留下执法 - 谁将负责指定一个或多个国家主管当局来监督监督制度的申请。

我们已经看到了这个故事如何通过一般数据保护规范脱颖而出。委员会本身已经承认了GDPR执法,并不一致或大力应用于集团 - 所以一个主要的问题是这些Fledgling AI规则将如何避免同样的论坛购物命运?

“会员国应采取一切必要措施,以确保实施该监管的规定,包括为其侵权制定有效,比例和孤立罚款。对于某些特定的侵权,会员国应考虑到本条例所载的利润率和标准,“载草稿。

委员会确实增加了一个警告 - 在会员国执法不提供的情况下可能介绍。但是,不同的执法方法没有近期前景,建议出现相同的旧陷阱。

“由于本规定的目标,即为在市场上配售市场的基督信制的生态系统的情况下,投入使用和在工会中使用人工智能,不能通过成员国充分实现,而且可以通过理性地实现行动的规模或影响,在联盟水平上取得更好,联盟可以按照欧洲联盟条约第5条所载的子公司提出的辅助原则,“委员会的回到停止未来的执法失败。

AI的监督计划包括将镜像实体设置为类似于GDPR的欧洲数据保护委员会 - 被称为欧洲人工智能委员会 - 这将通过发布欧盟立法者的相关建议和意见,同样支持对规定的应用禁止的AI实践和高风险系统名单。