亚马逊的算法是在脸上解读一种新的情绪:恐惧

[field:click/]次浏览 已收录

  本周早些时候,亚马逊宣布它已经提高了机器学习系统重新识别的准确性,提高了它的“情感检测”能力。亚马逊说,除了发现快乐、悲伤、愤怒、惊讶、厌恶、平静和困惑的情绪之外,它还“增加了一种新的情绪:恐惧”。

  从技术上讲,该算法通过学习人们表达恐惧时的表情来工作。然后,当你给它展示一个新的图像时,它可以以一定的概率告诉你,那个人的脸是否在传达恐惧的情绪,让人类决定如何处理这些信息。该公司对该产品的描述称,“亚马逊重新识别可以检测到快乐、悲伤或惊喜等情绪,以及人口学信息,如面部图像中的性别。”

  美国公民自由联盟的一项调查显示,亚马逊在向广告和营销公司销售其识别产品的同时,也在向警察部队和移民局销售该软件。

  “面部识别已经自动化并加剧了警察的虐待、仿形和歧视,”数字权利倡导组织为未来的副主任埃文·格里尔在一份声明中说。“现在,亚马逊正把我们带到一条道路上,武装政府机构可以根据一个有缺陷的算法的冷证词进行分秒判断。无辜的人可能会被拘留、驱逐出境,或被错误地监禁,因为电脑在被当局询问时发现他们看起来很害怕。我们噩梦中的反乌托邦监控状态正由一家渴望讨好世界各国政府的盈利型公司在平原上建立。”

  过去,民权组织、人工智能专家,甚至亚马逊的一些投资者都要求该公司停止使用面部识别技术,因为整个行业都存在着准确性问题,尤其是对于肤色黝黑的人来说,他们更容易辨别。特德在刑事司法系统内反对。随着各国政府开始意识到广泛使用有缺陷的技术的影响,像旧金山、奥克兰、加利福尼亚和马萨诸塞州Somerville等城市已经发出禁令,甚至许多其他地方也接受亚马逊技术的使用。面部识别已经在公共空间、机场甚至学校使用。

  本周早些时候,美国公民自由联盟(ACLU)进行了一次重新认识测试,该非营利组织发现,该机构错误地将加利福尼亚州立法者的20%与在该州数据库中发现的25000张逮捕照片相匹配。半数以上被错误识别的立法者都是有色人种,这说明了算法的一些偏差问题。对于测试,ACLU使用默认的重新识别设置。(在这篇文章发表后,亚马逊分享了它在回应美国公民自由联盟(ACLU)本周发布的测试时所做的声明,称其面部识别技术与推荐的99%置信度阈值结合使用时,可用于“一长串有益的目的”。LD)

  科学家们还对任何算法利用面部特征精确测量愤怒和恐惧等情绪的能力提出了争议。7月份发表在《公众利益的心理科学》杂志上的一篇论文回顾了只有通过测量人们的面部表情才能检测到情感的实际证据,并发现事实并非如此。本文并没有在情感识别的背景下特别提到亚马逊,尽管它确实提到了像微软这样的科技公司正在开发情感检测软件的方式。这篇文章的摘要写道:“现有的科学证据表明,人们有时快乐的时候会微笑,悲伤的时候会皱眉,愤怒的时候会皱眉,等等,正如人们普遍认为的那样,这些都比人们所期望的要多。”“然而,人们交流愤怒、厌恶、恐惧、快乐、悲伤和惊奇的方式在不同的文化、不同的情况下,甚至在同一种情况下,也会有很大的差异。此外,面部动作的相似配置也不同地表达了多个情感类别的实例。”

  他们写道:“所谓的情感表达比原先想象的更加多变和上下文相关。”

  作者还提醒说,用面部表情作为情感的代替品还为时过早:“更普遍地说,科技公司可能会问一个根本错误的问题,”来自东北大学和加州理工学院的研究人员写道。“仅从面部运动分析中简单地‘读出’人们的内部状态,而不考虑环境的各个方面,无论计算算法多么复杂,这些努力充其量都是不完整的,充其量也完全缺乏有效性。”

  无论如何,在亚马逊提供AWS服务的地区,根据视频和照片中的人脸评估某人看起来害怕的可能性现在是默认的。亚马逊拒绝就此事发表公开评论。