对全自动机器人的追求是误入歧途的,甚至可能是危险的。

2020-05-23 13:32:13

特斯拉首席执行官埃隆·马斯克(Elon Musk)和其他硅谷大牌高管长期以来一直承诺,一款无需人工帮助就能完成所有驾驶任务的汽车。

但马里兰大学计算机科学家本·施奈德曼(Ben Shneiderman)几十年来一直警告不要盲目地用计算机自动执行任务,他认为全自动汽车和科技行业对机器人未来的愿景是被误导的。甚至很危险。他认为,机器人应该与人类合作,而不是取代人类。

去年年底,施奈德曼博士发起了一场十字军东征,目的是让人工智能世界相信,它正朝着错误的方向前进。今年2月,他质问了在凤凰城举行的一个名为“Assured Autonomy”的行业会议的组织者,告诉他们,就连会议的标题都是错误的。他说,设计师不应该试图创造自主机器人,而应该专注于一条新的口号,设计“可靠、安全和值得信赖”的计算机化机器。

施奈德曼博士认为,应该为每个机器人配备相当于飞行数据记录器的设备。

当世界经济最终从冠状病毒大流行的破坏中走出来,数百万失去工作的人试图重返工作岗位时,这一警告可能会变得更加紧迫。他们中越来越多的人会发现他们正在与机器竞争或并肩工作。

现年72岁的施奈德曼博士几十年前就开始传播他的信息。作为人机交互领域的先驱,他于1982年与他人共同创立了现在的计算系统中人的因素会议,并创造了“直接操纵”一词,以描述物体在计算机屏幕上用鼠标或最近用手指移动的方式。

1997年,施奈德曼博士与麻省理工学院媒体实验室(Massachusetts Institute of Technology‘s Media Lab)的计算机科学家帕蒂·梅斯(Pattie Maes)进行了一场颇具先见之明的辩论,讨论当时流行的智能软件代理的概念,这种想法旨在为计算机用户执行自主任务--从重新订购食品杂货到预订餐厅,无所不包。

“设计师相信他们正在创造一些逼真和智能的东西-然而,用户感到焦虑,无法控制这些系统,”他辩称。

自那以后,施奈德曼博士一直辩称,设计者不仅面临创造不安全机器的风险,还有可能免除人类对从汽车到武器的自动系统所采取行动的道德责任。

人与计算机控制之间的冲突至少与交互计算本身一样古老。

这一区别最早出现在斯坦福大学附近于1962年创建的两个计算机科学实验室。计算机科学家约翰·麦卡锡(John McCarthy)创造了“人工智能”一词,他建立了斯坦福人工智能实验室,目标是在十年内创造一台“思维机器”。发明了电脑鼠标的道格拉斯·恩格尔巴特(Douglas Engelbart)在斯坦福研究中心(Stanford Research Center)创建了增强研究中心,并创造了“智能增强”这个术语,或称I.A.。

近年来,计算机界和学术界的研究人员试图将这两个领域重新结合起来,将由此产生的学科描述为“以人为本”或“以人为中心”的人工智能。

施奈德曼博士向工程界提出挑战,要求他们重新思考如何实现基于人工智能的自动化。到目前为止,机器自主性一直被描述为一维尺度,范围从人工控制的机器到无人干预运行的系统。

这些一维模型中最著名的是由汽车工程师协会建立的一套与自动驾驶车辆相关的定义。它描述了六个级别的车辆自动驾驶,从需要完全人工控制的0级到完全驾驶自动化的5级。

相比之下,施奈德曼博士勾勒出了一种二维替代方案,既可以实现高度的机器自动化,也可以实现人工控制。除了某些例外,如汽车安全气囊和核电站控制棒,他断言计算设计者的目标应该是使用计算来扩展人类用户能力的系统。

这种方法已经被机器人专家和五角大楼官员推广。丰田研究所所长吉尔·普拉特(Gill Pratt)是让人类“知情”的长期倡导者。他的研究所一直致力于开发Guardian,研究人员将其描述为“超高级驾驶员辅助系统”。

“自动化可以帮助人们做很多事情,而不是取代他们,”普拉特博士说。他不仅将实验室的重点放在汽车安全上,还将重点放在开发机器人技术以支持年长司机这一挑战上。

同样,曾在特朗普和贝拉克·奥巴马政府担任国防部副部长的罗伯特·O·沃克(Robert O.Work)支持所谓的半人马武器系统的想法,该系统需要人类控制,而不是基于人工智能的机器人杀手,后者现在被称为致命的自动武器。

“半人马”一词最初是在国际象棋领域流行起来的,在国际象棋领域,人类和计算机程序的伙伴关系不断地击败没有辅助的软件。

在今年的凤凰城自动驾驶系统会议上,施奈德曼博士说,波音的MCAS飞行控制系统是高度自动化和低人工控制的极端例子。在两架波音737 Max喷气式飞机坠毁后,该系统被指责为波音公司的MCAS飞行控制系统。

他在一篇广为流传的未发表文章中写道:“设计师们相信他们的自主系统不会失败。”因此,它的存在没有在用户手册中描述,飞行员也没有接受如何切换到手动超控的培训。

施奈德曼博士在接受采访时说,他参加这次会议的目的是说服组织者将会议名称从关注自主改为关注人类控制。

“我逐渐意识到名字和比喻非常重要,”他说。

他还列举了空军、美国国家航空航天局(National Aeronautics And Space Administration)和国防科学委员会(Defense Science Board)放弃对自动系统的依赖的例子。国防科学委员会是一个为国防部提供科学技术建议的民间专家委员会。

德克萨斯农工大学的计算机科学家和机器人专家罗宾·墨菲(Robin Murphy)说,她已经和施奈德曼博士谈过,并大体上同意他的观点。

“我认为有一些不完美的地方,我已经和本谈过这件事,但我不知道更好的了,”她说。“我们必须想办法更好地表现人类和计算机是如何互动的。”

杜克大学(Duke University)人类与自主实验室主任米西·卡明斯(Missy Cummings)说,“本认为他的二维模型是一个全新的视角,这是不正确的。”她说,她在设计课程中依赖于他的人机界面想法。

“协作的程度应该由系统中的不确定性和结果的临界性来驱动,”她说。“核反应堆高度自动化是有原因的:如果反应堆变得关键,人类通常没有足够快的反应时间来推动棒的进入。”