关于伦理AI的FTC陈述

2021-04-20 21:27:10

人工智能(AI)技术承诺彻底改变我们的医学,金融,业务运营,媒体等方法的概况。但研究突出了显然“中性”技术如何产生令人不安的结果 - 包括种族或其他法律保护的课程的歧视。例如,Covid-19预测模型可以通过高效分配ICU床,呼吸机和其他资源来帮助健康系统对抗病毒。但作为最近在美国医学信息学协会期刊的研究表明,如果这些模型使用反映医疗保健交付中现有种族偏见的数据,那么旨在使所有患者造成的AI可能会使颜色人民恶化的医疗保健差异。

那么,问题是,如果我们如何利用AI的福利,而无意中引入偏见或其他不公平的结果?幸运的是,虽然复杂的技术可能是新的,但FTC的注意力决策不是。 FTC有几十年的经验,为AI的开发人员和用户执行了三个法律:

FTC法案第5节。 FTC法案禁止不公平或欺骗性做法。这包括销售或使用 - 例如 - 种族偏见的算法。

公平信用报告法案。在某些情况下,该算法用于拒绝人才就业,住房,信贷,保险或其他福利的某些情况下发挥作用。

平等信用机会法案。 ECOA使公司违法使用偏置算法,这些算法导致基于种族,颜色,宗教,国家来源,性别,婚姻状况,年龄或因人收到公共援助的信贷歧视。

除此之外,FTC利用了这些法律的专业知识,以报告大数据分析和机器学习;对算法进行听证,AI和预测分析;并为AI和算法发出业务指导。这项工作 - 与FTC执法行动相结合 - 在真实,公平和公平地使用AI时提供重要的课程。

从正确的基础开始。凭借神秘的行话(想:“机器学习,”神经网络,“和”深度学习“)和巨大的数据嘎吱作用,AI似乎几乎是神奇的。但是AI的正确出发点没有任何神秘的东西:坚实的基础。如果数据集是缺少特定群体的信息,则使用该数据构建AI模型可以产生不公平或不公平的结果,以应对法律保护的组。从一开始,考虑改进数据集的方法,设计模型以考虑数据差距,而 - 鉴于任何缺点 - 限制您使用模型的Where或方式。

留意歧视性结果。每年,FTC都持有PrivacyCon,一个展示隐私,数据安全和人工智能的尖端开发。在PrivacyCon 2020期间,研究人员提出了工作表明,为医疗资源分配和广告等良性目的开发的算法实际上导致种族偏见。如何降低贵公司的风险成为善意算法延续种族不公平的业务的例子?测试您的算法至关重要 - 在您使用它之前以及定期之后,这两者都是 - 以确保它不会根据种族,性别或其他受保护类歧视。

拥抱透明度和独立性。谁发现了在Privacycon 2020中描述的医疗保健算法中的种族偏见,后来发表于科学?独立研究人员通过检查大型学术医院提供的数据来发现它。换句话说,它是由于该医院的透明度以及研究人员的独立性,偏见的光临。随着贵公司开发和使用AI,请考虑使用透明度和独立性的方法 - 例如,通过使用透明度框架和独立标准,通过开展和发布独立审计的结果,并通过打开您的数据或源代码来进行外部检查。

不要夸大您的算法可以做的或是否可以提供公平或无偏见的结果。根据FTC法案,您对商业客户和消费者的声明必须是真实的,非欺骗性的,并通过证据支持。急于接受新技术,小心不要过度过度发出你的算法可以提供的东西。例如,让我们说AI开发人员告诉客户,它的产品将提供“100%无偏见的招聘决策”,但算法是用缺乏种族或性别多样性的数据构建的。结果可能是欺骗,歧视 - 和FTC执法行动。

讲述你如何使用数据的真相。在我们去年对AI的指导下,我们建议企业要小心如何获得其模型的数据。我们注意到FTC对Facebook的投诉,据称,社交媒体巨头误导了消费者通过告诉他们可以选择借助默认情况下使用他们的照片的公司的面部识别算法。 FTC最近对App Developer Everalbum的行动加强了该点。根据投诉,Everalbum使用的照片由App用户上传以训练其面部识别算法。 FTC据称,该公司欺骗了用户控制应用程序面部识别特征的能力,并在账户停用后删除他们的照片和视频的歪曲。为了阻止未来的违规行为,所提出的命令要求公司不仅删除了不良数据,还需要使用用户的照片或视频开发的面部识别模型或算法。

做得比伤害更好。要把它放在最简单的条件下,根据FTC法案,如果它造成更大的伤害,这种实践是不公平的。假设您的算法将允许公司针对最感兴趣的消费者对购买产品。似乎是一个直截了当的好处,对吧?但是,让模型通过考虑种族,颜色,宗教和性别来定位这些消费者 - 结果是数字红线(类似于2019年对Facebook的住房和城市发展案例的情况)。如果您的模型造成更高的弊大于 - 即在第5节的情况下,如果它导致或可能对消费者合理地避免的消费者造成大量伤害,而不是因消费者或竞争而不超过的消费者,而不是竞争 - FTC可以挑战这种模型作为不公平的使用。

坚持自己责任 - 或者准备好FTC为您做。正如我们所指出的那样,对自己对算法的性能负责是很重要的。我们对透明度和独立性的建议可以帮助您做到这一点。但请记住,如果您不遵守自己负责任,FTC可能会为您做。例如,如果您的算法导致对受保护的课程的信贷歧视,您可以发现自己面临着违反FTC法案和Ecoa的投诉。无论是由偏见的算法还是通过人类不当行为更加平淡的品种,FTC都非常认真地指控信贷歧视,因为其最近对Bronx本田的行动表现出来。

随着贵公司发射进入人工智能的新世界,使您的做法保持在成立的FTC消费者保护原则。

您是您选择是否提交评论。 如果您这样做,您必须创建用户名,或者我们不会发布您的评论。 联邦贸易委员会法案授权此信息收集,以便管理在线评论。 评论和用户名是联邦贸易委员会(FTC)公共记录系统(PDF)的一部分,用户姓名也是FTC的计算机用户记录系统(PDF)的一部分。 我们可能经常使用FTC的隐私法制度通知中所述的这些记录。 有关FTC如何处理我们收集的信息的更多信息,请阅读我们的隐私政策。