密歇根大学的一项研究倡导在学校禁止面部识别

2020-08-12 05:53:54

密歇根大学的研究人员最近发表的一项研究显示,学校中的面部识别技术效果有限,并出现了一些严重的问题。这项研究由该大学科学、技术和公共政策(STPP)项目主任Shobita Parthasarathy领导,他发现这项技术不仅不适合安全目的,它还可以积极促进种族歧视,使监控正常化,侵蚀隐私,同时边缘化性别不一致的学生。

在这项研究之前,纽约立法机构通过了一项禁令,在2022年之前暂停在学校使用面部识别和其他形式的生物识别。这项法案是对洛克波特市学区推出面部识别系统的回应,是全国首批明确规范或禁止在学校使用这项技术的法案之一。此前,包括亚马逊(Amazon)、IBM和微软(Microsoft)在内的公司停止或停止了面部识别产品的销售,以回应美国第一波黑人生命也是命(Black Lives Matter)抗议活动。

密歇根大学的这项研究是STPP技术评估项目的一部分,它采用类比的案例比较方法来考察安全技术(闭路电视摄像头、金属探测器和生物识别技术)以前的使用情况,并预测面部识别的影响。虽然它的结论并不新颖,但它对其断言可能对学生和教育工作者造成的伤害远远大于对他们的帮助的商业产品采取了强硬的立场。

例如,合著者声称面部识别将不成比例地针对和歧视有色人种,特别是黑人和拉丁裔社区的人。与此同时,他们表示,面部识别将促进新的着装和外表规范,并惩罚不符合这些狭隘限制的学生,每当学校依赖这项技术将考勤或午餐销售等活动自动化时,就会带来问题。

无数的研究表明,面部识别容易受到偏见的影响。科罗拉多大学博尔德分校(University of Colorado,Boulder)的研究人员去年秋天发表的一篇论文显示,亚马逊、Clarifai、微软和其他公司的人工智能对顺性男性和女性的准确率保持在95%以上,但将跨性男性误认为女性的可能性为38%。性别阴影项目和美国国家标准与技术研究所(NIST)对主要供应商系统的单独基准表明,面部识别技术表现出种族和性别偏见,面部识别程序可能非常不准确,96%以上的时间会对人进行错误分类。

密歇根大学(University Of Michigan)的研究人员认为,面部识别将吸收现有的种族偏见,并使其变得更糟,导致对黑人和拉丁裔学生的更多监视和羞辱。它将使监控成为日常生活的一部分,为扩展到其他用途奠定基础。虽然学校的隐私政策规定,其面部识别观察名单将不包括学生,只包括被视为威胁的非学生,但学区负责人最终负责监督哪些个人被添加到系统中,学校董事会主席也不能保证,出于纪律原因,学生照片永远不会被包括在内。

密歇根大学这项研究的合著者还坚持认为,在学校使用面部识别将产生新类型的学生数据,这些数据将被私营公司购买。为一种目的收集的数据可能被用于其他方式,使得学生不可能就数据收集或控制提供完全和知情的同意。上周,参议员杰夫·默克利(Jeff Merkley,D-OR)和参议员伯尼·桑德斯(Bernie Sanders,I-VT)在“国家生物识别信息隐私法”(National Biometry Information Privacy Act)中提出了一项法律补救措施,该法案将规定,企业未经许可收集、购买或交易从客户那里获得的生物识别信息是非法的。但美国大多数州目前提供的保护很少,如果有的话。

研究人员建议在全国范围内禁止学校使用面部识别,并为认为这项技术“绝对必要”的学校提供政策建议。在其他措施中,他们提议在五年内暂停在学校使用面部识别技术;召开一个国家咨询委员会调查面部识别及其影响;建立技术办公室,帮助学校应对面部识别的技术、社会、伦理和种族挑战;以及在每个学年结束时或学生毕业或离开学区时删除面部识别数据。

在学校内使用面部识别系统的一些努力遭到了家长、学生、校友、社区成员和立法者的抵制。在大学层面,在科罗拉多大学(University Of Colorado)的一名教授被曝秘密拍摄了数千名学生、员工和游客在公共人行道上为一个军事反恐项目拍照后,媒体爆发了一场风暴。加州大学圣地亚哥分校的研究人员承认,他们通过研究学生面部表情的镜头来预测参与度。去年,加州大学洛杉矶分校(University of California,Los Angeles)提议使用面部识别软件进行安全监控,作为更大规模校园安全政策的一部分。