五角大楼朝着让AI控制武器

2021-05-14 03:10:59

去年8月,几十名军事无人机和坦克的机器人到了西雅图南部40英里40英里的天空和道路。他们的使命:发现恐怖分子涉嫌躲藏在几座建筑物中。

这么多机器人参与了操作员可以保持密切关注的操作。因此,在必要时,他们被指示了解 - 并消除 - 敌人的战斗人员。

特派团只是一项锻炼,由国防高级研究项目机构,五角大楼的蓝天研究部门组织;机器人被武装,而不是旨在模拟与友好和敌人机器人的相互作用的无线电发射机更致命。

钻探是去年夏天进行的几个进行的,以测试人工智能如何帮助扩大军事系统中自动化的使用,包括在太复杂和太快的情景中,为人类做出一切批判性决定。示威活动也反映了五角大楼对自主武器的思考的微妙转变,因为它变得更加清晰,机器可以超越分析复杂情况或以高速运行的人。

美国陆军期货委员会的约翰·默里上个月在美国军方学院讲述了一位受众,即机器人的大群将迫使军队规划者,政策制定者和社会思考一个人是否应该在新的自治系统中使用致命力量的决定。 。默里问:“它在人类中'能够挑选哪些必须订婚的能力”然后制作100个个人决定? “甚至是有必要在循环中有一个人吗?”他加了。

军事指挥官的其他评论建议兴趣给予自主武器系统更多机构。在上周在空军的AI会议上,MIC MIT人工智能加速器的业务总监Michael Kanaan和美国军队内部的领先声音,说思路正在不断发展。他说,当人类做出高级别的决定时,他应该表现更多的识别和区分潜在目标。 “我认为那个'我们在哪里'重新进入,”Kanaan说。

在同一赛季,战略,集成以及五角大楼的副职员副主任克林顿文化委员会中尉表示,如果一个人可以从致命的自治系统的循环中删除是“最有趣的辩论之一即将到来,[和]尚未解决。“

本月从国家安全情报(NSCAI)的报告,由国会创作的咨询小组,其中包括美国抵制呼吁国际禁止自主武器的发展。

Timothy Chung负责蜂拥项目的DARPA计划经理,表示,上夏天的练习旨在探索人类无人机运营商应该,不应该为自治系统做出决定。例如,当面对几个前面的攻击时,人类的控制有时会妨碍使命的方式,因为人们无法快速地反应。 “实际上,系统可以从没有有人干预方面做得更好,”钟说。

无人驾驶和轮式机器人,每个大小的大背包的大小都被赋予了整体目标,然后点击AI算法设计了实现它的计划。其中一些包围了建筑物,而其他人则进行监控扫描。一些被模拟炸药摧毁了一些;一些识别的信标代表敌人的战斗人员并选择攻击。

几十年来,美国和其他国家在武器系统中使用了自主权。例如,某些导弹可以在给定区域内自主识别和攻击敌人。但是AI算法的快速进步将改变军队如何使用此类系统。能够控制机器人和识别地标和目标的空置AI代码,通常具有高可靠性,将使可以在更广泛的情况下部署更多系统。

但随着寄生虫示范突出,更广泛使用AI有时会使人类留在循环中更加困难。这可能证明是有问题的,因为AI技术可以覆盖偏见或表现不可预测地。培训的视觉算法旨在识别特定制服可能会误认为是戴着类似衣物的人。 Chung表示,群体项目假定AI算法将改进到他们可以识别有足够可靠性的敌人的点。

近年来,在武器系统中使用AI在武器系统中变得争议。谷歌面临员工抗议和2018年通过称为Maven的项目向空军提供AI技术后,2018年。

在某种程度上,该项目是武器系统中悠久的自主权历史的一部分,一些导弹已经能够独立于人类对照进行有限的任务。但它还展示了AI最近的近期进步将使某些情况下的自主权更具吸引力和不可避免。什么'较多,它强调了将仍然可以不可预测的技术的信任。

保罗Scharre是新美国安全中心和军队作者的专家:自治武器和战争的未来,说现在是有关于自治武器技术更复杂的讨论。 “围绕”循环中的人类的讨论“应该更复杂,而不是简单的二进制'他们还是aren' t他们?'”scharre说。 “如果一个人决定从事敌人无人机的群体,人类需要单独选择每个目标吗?”

国防部于二零一二年十一月发布了一项关于自治武器的政策,指出自主武器系统需要具有人类监督的人 - 但这不需要士兵做出所有决定。

那些相信军队可以使用AI在人类对致命力量的责任方面越过Rubicon看到事情的不同之处。

“致命的自主武器便宜,每个恐怖分子都能负担得起他们不在美国,而且国家安全利益的国家安全利益最多,”生命研究所未来的未来教授,是一个反对自治武器的非营利组织。

Tegmark说,AI武器应该是“耻辱和禁止的生物武器”。 NSCAI报告'相反的全球禁令是一个战略错误,他说:“我认为我们有一天甚至更遗憾地抱歉,我们遗憾地武装塔利班。”

🎧声音不对的东西?查看我们最喜欢的无线耳机,声栏和蓝牙音箱