为什么数以百计的数学家抵制预测性警察

2020-07-22 00:37:29

全国各地大学的数学家停止了与美国各地警察部门的合作。

6月15日的一封信寄给了行业杂志“美国数学学会通知”,宣布了抵制行动。

通常,数学家与警察部门合作建立算法,进行建模工作,并分析数据。

根据6月15日提交给美国数学学会通知的一封信,几位著名的学术数学家希望切断与美国各地警察部门的联系。这封信是在针对警察暴行的广泛抗议活动几周后收到的,并已激励其他1500多名研究人员加入抵制行动。

这些数学家敦促其他研究人员停止所有与预测性警务软件相关的工作,其中广泛包括任何使用历史数据来帮助预测未来犯罪、潜在犯罪者和受害者的数据分析工具。这项技术应该利用概率来帮助警察部门定制他们的社区覆盖范围,这样它就可以让警察在正确的时间出现在正确的地点。

作者在信中写道,考虑到美国警察的结构性种族主义和残暴,我们认为数学家不应该以这种方式与警察部门合作。为种族主义做一个科学的表象实在太容易了。请加入我们的行列,承诺不与警方合作。此时此刻,这是我们作为一个社区所能做的最起码的事情。

其中一些数学家包括凯西·奥尼尔(Cathy O&39;Neil),她是畅销书“数学毁灭的武器”(Weapons Of Math Deployment)的作者,该书概述了这封信所反对的算法偏见。还有哥伦比亚数学家费德里科·阿迪拉(Federico Ardia),目前在旧金山州立大学任教,他以使数学领域多样化而闻名。

在这封信上签名的华盛顿大学数学系副教授贾亚德夫·阿特里亚(Jayadev Atriya)告诉“大众力学”(Popular Mechanical),这是我们中的许多人意识到存在已久的现实的时刻。我们中的许多人认为,清楚地表明我们作为数学家在这些问题上的立场是非常重要的。

此内容是从YouTube导入的。您可以在他们的网站上找到不同格式的相同内容,也可以找到更多信息。

电子前沿基金会,一个非营利性的数字权利组织,将预测性警务定义为执法部门使用数学分析来识别和威慑潜在的犯罪活动。

这可以包括统计或机器学习算法,这些算法依赖于详细记录过去犯罪的时间、地点和性质的警方记录,以预测未来是否、何时、何地和谁可能犯下违法行为。从理论上讲,这应该有助于当局更明智地使用资源,并花费更多时间在他们认为会产生更高犯罪率的某些社区进行治安。

预测警务与面部识别技术不是一回事,面部识别技术更多地是在犯罪发生后用来试图识别肇事者。警方可能会一起使用这些技术,但它们从根本上是不同的。

例如,如果预测警务软件显示一家酒吧在凌晨2点出现犯罪率上升。周六晚上,警察局可能会在那里部署更多警察。如果那里确实发生了犯罪,该部门可能会使用面部识别技术来筛选监控录像,以找到并识别个人。

根据加州圣莫尼卡的非营利性智库兰德公司(RAND Corporation)2013年的一次研究简报,预测性警务由四个部分组成(如上图所示)。在前两个步骤中,研究人员收集和分析有关犯罪、事件和罪犯的数据,以做出预测。从那里,警方根据预测进行干预,通常在特定时间以增加某些地点的资源的形式进行干预。理想情况下,第四步是减少犯罪。

作者指出,执法机构应该评估干预的直接影响,以确保不会立即出现明显的问题。机构还应该通过检查收集的数据、执行额外的分析并根据需要修改操作来跟踪较长期的变化。

在许多情况下,预测性警务软件本应成为一种工具,以增强面临预算危机的警察部门,而警察人数较少,无法覆盖一个地区。如果警察能够在特定的时间针对特定的地理区域,那么他们就可以提前拨打911电话,甚至可能降低犯罪率。

但在实践中,这项技术的准确性受到了质疑-它甚至被称为种族主义。

数学家与预见性警务保持距离的部分动机可以追溯到2016年8月的一次研讨会,该研讨会倡导数学家参与警察部门的工作。

由国家科学基金会资助的罗德岛州普罗维登斯市布朗大学数学计算与实验研究所(ICERM)为20至25名研究人员举办了研讨会。总部位于加利福尼亚州圣克鲁斯的科技公司PredPol是合作伙伴之一,该公司向美国各地的部门开发和销售预测警务工具。

根据活动的通知,为期一周的项目包括与普罗维登斯警察局合作。小团队专注于真实犯罪和警务数据的实际问题,集思广益,以数学方法和模型来帮助警察,甚至在必要时创建代码来实现想法。

活动组织者当时表示,他们完全预计将形成持久的合作,研讨会结束后,项目的工作将继续进行。

华盛顿大学数学系教授克里斯托弗·霍夫曼(Christopher Hoffman)也在这封信上签名,他告诉大众机械(Popular Mechanical),机构的买入与他和他的同事们有关。他说,当一家大型机构这么做时,就像是在说,这是我们作为一个社区所重视的东西。

阿特里亚说,在关于预测性警务的研讨会之前,他参加了ICERM的研讨会,并表达了他当时的担忧。他说,数学家不应该建造这种软件,也不应该对其进行投资。他指出,研究人员有时在该软件中既有智力上的利害关系,也有经济上的利害关系。

我们一直是这些真正有问题的机构的一部分,现在是我们反思和决定的时候了,我们不会作为一个社区这样做,我们不会与正在杀人的组织合作。

研究人员对PredPol提出了特别的质疑,这家备受瞩目的公司帮助举办了ICERM研讨会,在信中声称其技术制造了种族主义反馈循环。换句话说,他们认为该软件无助于预测未来的犯罪,反而强化了警官的偏见。

不过,PredPol首席执行官布莱恩·麦克唐纳告诉“大众机械”杂志,PredPol从不使用逮捕数据,因为这可能存在警官偏见。他说,相反,该公司只使用受害者自己向警方报告的数据。因此,如果你的车被破门而入,你可以打电话给警察,告诉他们关于犯罪类型、地点和时间的信息。他说,警察可能会通过电话获取这些信息,或者让你填写一张在线表格。

哈弗福德学院(Haverford College)数学助理教授、信件签字人塔里克·奥加布(Tarik Aougab)告诉大众机械(Popular Mechanical),保留PredPol模型中的逮捕数据不足以消除偏见。

奥加布说,预测性警务的问题在于,它不仅仅是个别官员的偏见。有一种巨大的结构性偏见在起作用,除了其他因素外,它可能会将轻微的商店盗窃或使用假钞(这最终导致乔治·弗洛伊德被谋杀)视为一种犯罪,警方应该首先对此做出回应。

此内容是从{embed-name}导入的。您可以在他们的网站上找到不同格式的相同内容,也可以找到更多信息。

他说,一般来说,有很多人不会报警,我认识的很多人都不会报警,因为他们有理由担心当警察到来时会发生什么事,因为他们有理由害怕警察到来时可能会发生的事情。我认识很多人,其中很多人都不会报警,他说,因为他们有理由害怕警察到来时可能会发生的事情。他说,如果警察真的来了,他们有理由害怕可能会发生的事情。

这个想法在软件的实际工作方式上重新浮出水面。正如2019年2月的一篇副报道所报道的那样,PredPol使用了一种用于预测地震余震的统计建模方法。

麦克唐纳说,同样的方法也适用于犯罪预测,因为这两个问题都有需要解决的地点和时间因素。然而,“罪恶故事”呼应了奥加布的担忧,即一些犯罪被漏报或未上报,这意味着外部影响可能会扭曲时间和地点数据。

麦克唐纳说,PredPol目前大约有50名客户。作为背景,美国大约有18000个警察部门。但阿特里亚说,一个更好的衡量标准来自PredPol自己的网站:每33个美国人中就有一个受到该软件的保护。他说,这些数字看起来如此不同,是因为该国一些最大的警察部门正在使用这项技术。

当然,PredPol并不存在于泡沫中。2011年,洛杉矶警察局开始使用名为洛杉矶战略提取和恢复(LASeR)的预测性警务软件,最终于2019年4月停止使用。

霍夫曼说,[洛杉矶警察局]对此进行了调查,发现几乎无法对该软件的有效性做出任何结论。我们甚至不知道这对警察在哪里巡逻有影响。

与此同时,阿特里亚说,纽约市警察局使用了三种不同的预测警务工具:Azavea、Keystats和PredPol,以及可以追溯到2013年的内部预测警务算法。

在芝加哥,官员们一直在使用一个名为战略主题列表的内部数据库,直到去年11月,该部门停止使用该数据库。据阿特里亚称,兰德公司发现,这份名单包括了自2013年以来在芝加哥被捕或采集指纹的每一个人。

芝加哥监察长办公室1月份的一份声明指出,这项技术的一些主要问题包括:风险分数和等级的不可靠性;宣誓人员培训不当;缺乏对内部和外部访问的控制;受PTV风险模型影响的干预,这些模型可能会给逮捕带来负面后果,但不会导致定罪;以及缺乏维持PTV模型的长期计划。

就在几周前,圣克鲁斯警察局禁止使用预测性警务工具。早在2011年,该部门就开始了一个预测性警务试点项目,旨在缓解那些在该市大幅削减警察预算时被服务电话淹没的警察的压力。

虽然圣克鲁斯警察局对这项技术的彻底禁令可能受到了最近“黑人生命也是命”抗议活动的影响,但该部门早在2017年就已经暂停了这项技术。

警察局长安迪·米尔斯(Andy Mills)告诉“洛杉矶时报”(Los Angeles Times),如果预测性警力被用来与社区合作解决问题,而不是纯粹的执法,那么它可能会有效。

米尔斯告诉“洛杉矶时报”,当你回首往事时,你会尝试不同的东西,然后才会学到东西。你说,天哪,那是一个我没有看到的盲点。我认为未来我们可以防止这种情况发生的方法之一是与社区成员坐下来说,这是我们有兴趣使用的东西。告诉我们你对这件事的看法。你担心什么?

不过,霍夫曼表示,我们无法知道这项技术在美国到底有多普及。他说,人们很难获得关于谁在使用这款软件以及他们用它做什么的信息。

数学家们表示,阿特里亚希望表明,他们的抵制不仅仅是理论上的担忧。但如果这项技术继续存在,至少应该有一些实施指导方针。他们有一些要求,但大多归结为透明度和社区认同的概念。

专家们应该积极主动地参与到审计过程中来,利用数学来防止权力的滥用。

数学家应该与社区团体、监督委员会和其他组织合作,如“人工智能中的黑人”和“数据4黑人生活”,开发出替代压迫和种族主义做法的方法。

开设数据科学课程的学术部门应该实施学习成果,以解决此类工具的伦理、法律和社会影响。

阿特里亚说,自从这封信上线以来,至少有1500名其他研究人员通过谷歌表格签约。他对这种回应表示欢迎。

他说,我认为预见性警务永远不应该存在,特别是当它让人们付出生命代价的时候。

此内容由第三方创建和维护,并导入到此页面以帮助用户提供其电子邮件地址。您可以在piano.io上找到有关此内容和类似内容的更多信息。

此评论区由第三方创建和维护,并导入到此页面。你可以在他们的网站上找到更多信息。