新的人工智能工具检测儿童性虐待材料的准确率为99%

2020-08-03 10:17:12

近年来,网络上的儿童性虐待材料呈指数级增长。2019年,向美国国家失踪和被剥削儿童中心报告的文件有6910万份-是2017年的三倍,比前15年增加了15000%。

一种名为SAFER的新人工智能工具旨在阻止辱骂网络内容的流动,找到受害者,并识别肇事者。

该系统使用机器学习来检测新的和未报告的c Hild性虐待材料(CSAM)。SAFER背后的非营利性组织TRON表示,它可以99%以上的准确率发现内容。

索恩为那些没有自己的内容过滤系统的企业打造了这个工具。

SAFER负责业务发展的副总裁凯特琳·博格曼(Caitlin Borgman)告诉TNW:“我们意识到,(规模较小的)组织就是没有资源来识别、移除和报告这类材料。”

“整个行业对于遇到这种情况时该怎么做,以及如何处理都存在不一致之处。没有最佳实践的记录。建造它的成本很高-它可能需要超过50万美元,即使是对于一个中型组织来说也是如此。然后你必须维护它。在你能检测到的东西中有很多空白。而且没有真正的CSAM集中数据库。它是非常孤立和分散的。“。

SAFER是解决这些问题的一种尝试,并帮助科技公司摆脱其平台上的滥用材料。

该系统通过搜索被称为哈希的数字指纹来检测平台上的滥用内容。

当它发现这些散列时,它会将它们与数百万张辱骂材料的图像和视频的数据集进行比较。如果这些内容之前没有被报告过,那么对辱骂材料进行训练的算法会确定它是否可能是CSAM。然后,它被排队等待平台的审核团队审查,并报告给美国国家失踪和被剥削儿童中心,该中心将内容添加到其数据库中。

SAFER的早期客户包括照片分享服务Flickr。该公司最近使用该工具在其在线平台上检测到了一张虐待的图片。随后的执法和调查导致确认并找回了21名儿童,年龄从18个月到14岁不等。肇事者现在被关押在联邦监狱。

Thorn表示,在测试版阶段,它总共为包括Imgur、Slake、Medium和Vimeo在内的主要客户删除了近10万个CSAM文件。

该工具现在可供在美国运营的任何公司使用。明年,索恩计划在将该产品与海外公司的报告要求整合后,向海外公司提供该产品。

该非营利性组织的最终目标是从开放的网络上消除儿童性虐待材料。

“我们看到了未来,每个孩子都可以只是个孩子,互联网是一个安全的环境,”以及10年前可能成为受害者的受害者…。当他们的图像被重新分享或重新浮出水面时,不会再次成为受害者,“Borgman说。这真的只是扰乱了供应链。“它正在阻止它上路。”

你想每天在你的收件箱里免费获得最时髦的每日科技时事通讯吗?你当然需要:在这里注册大号午餐肉吧。