时间调节解释人类情绪的AI

2021-04-07 20:31:09

在大流行期间,科技公司一直在推动他们的情感识别软件,以便远程监测工人甚至儿童。例如,采取一个名为4只小树木的系统。在香港发展,该计划声称在他们做课堂时评估儿童的情绪。它将面部特征映射到将每个瞳孔的情绪状态分配到幸福,悲伤,愤怒,厌恶,惊喜和恐惧之类的类别中。它还衡量“动机”和预测成绩。类似的工具已被销售,为偏远工人提供监控。通过一个估计,到2026年,情绪认可行业将增长到370亿美元。

关于AI是否可以检测到情绪,有深刻的科学分歧。 2019年审查发现没有可靠的证据。 “科技公司可能会询问一个根本错误的问题,”这项研究得出结论(L. F. Barrett等人。Sci。SCI。公共利益20,1-68; 2019)。

并且对这些技术的使用和滥用越来越多的科学关注。去年,联合成立于波士顿的人工智能(AI)启动的Rosalind Picard称,在波士顿中称为Massachusetts理工学院的情感计算研究组表示,她支持法规。学者呼吁对所有用于招聘中使用的AI技术进行强制性的严格审计,以及公开披露调查结果。 3月,伦敦Ada Lovelace Institute召开的公民小组表示,独立的法定机构应监督生物识别技术的开发和实施(见Go.nature.com/3cejmtk)。这种监督对于通过呼叫膈灵脉管驱动的系统来说是必不可少的:吸引有关内部状态和外部外表的能力的错误假设,目的是提取更多关于一个人的人,而不是他们选择揭示。

全球各国有规定,在发展治疗身体的药物中强制执行科学严谨性。应该提供对我们思想的索赔的工具至少相同的保护。多年来,学者呼吁联邦实体规范机器人和面部认可;这也应该扩展到情感识别。现在是国家监管机构对未经证实的申请,特别是针对儿童和其他弱势群体的时候的时候了。

来自临床试验的课程显示为什么规定是重要的。联邦要求和随后的宣传为公众提供了更多的临床试验数据,并须经严格的核查。这成为足够的政策制定和公众信任的基岩。对情感技术的监管监督将带来类似的福利和问责制。它还可能有助于建立由公司和政府反对的规范。

Polygraph是一个有用的平行。这种“LIE探测器”测试是在20世纪20年代发明的,由FBI和美国军队使用数十年来,结果不一致,损害了数千人,直到联邦法律主要禁止使用。直到1998年,美国最高法院的总结说“根本没有共识,即复印证据是可靠的”。

索赔背后的表现形象是有普遍的面部表情是心理学家保罗·埃克曼。在20世纪60年代,他前往巴布亚新几内亚的高地来测试他的争议假设,所有人都表现出少数“普遍”情绪,这些情绪是天生的,跨文化和一致的。早期,人类学家玛格丽特米德对这个想法有争议,称它折扣上下文,文化和社会因素。

但是六种情绪ekman描述了完美的计算机视野的新兴领域的模型。正如我在我的2021年的AI图书地图集,他的理论是采用的,因为它适合工具可以做的事情。六种一致的情绪可以在规模中标准化和自动化 - 只要忽略更复杂的问题。 Ekman在2001年9月11日恐怖袭击后将其系统销售给美国运输安全管理局,以评估哪些航空公司乘客展示恐惧或压力,因此可能是恐怖分子。由于缺乏可信度和种族偏见,强烈批评。然而,今天的许多工具(如4只小树木)都是基于Ekman的六种情绪分类。 (EKMAN维持面孔确实传达了普遍的情绪,但是说他没有证据证明自动化技术的工作。)

然而,公司继续销售软件,这将影响人们的机会,而不会明确记录,独立审计有效性证据。求职者正在被不公平地被判断,因为他们的面部表情或声音听不可符合员工;学生在学校被标记,因为他们的脸似乎很生气。研究人员还表明,面部识别软件将黑色面孔解释为具有比白色面孔更多的负面情绪。

我们不能再允许情感识别技术进行不受管制。现在是在所有领域的这些工具中的未经处理的使用立法保护 - 教育,医疗保健,就业和刑事司法。这些保障措施是近来严格的科学,并拒绝神话,即内部国家只是可以从我们的脸上刮掉的另一个数据集。