原文标题:AI复兴相面术?人脸识别同性恋、罪犯是伪科学 “相面术”是一种从通过外表得知性格的伪科学,它有着悠久的历史,其中第一批保存下来的相关文献可以追溯到亚里士多德时代。达尔文曾经差一点因为他的鼻子而错过了他在小猎犬号上的历史性航行,因为船长是一个狂热的相士,他不相信长有这样的鼻子的人会有足够的决心完成航行。“但我认为,”达尔文在他的自传中冷淡地说,“后来的结果与通过我的鼻子预测出的相反,他很满意这一点。” 我们可能会取笑那些相士的想法,但是现代关于第一印象的科学表明,我们每个人最原始的想法都是与相士类似的。我们会从别人的面部表情中形成对他们的即时印象,只用不到十分之一秒的时间去看一张脸就足以让我们下定结论了。第一印象不仅是即时的,而且也很重要:我们更有可能投票给那些看起来有能力的政客;更倾向于投资那些看起来值得信赖的人;而对那些看起来相反的人给予更严厉的反对。“以貌取人”是社交生活的一个普遍特征。 关于第一印象的现代科学也总结出了许多造成这些影响的面部的刻板印象。在过去的十年里,心理学家们已经建立了数学模型来可视化这些刻板印象。我们可以通过增加或减少模型中的可信性程度和能力水平得出相对应的面孔。更重要的是,我们可以建立和测试关于面部刻板印象起源的理论。 然而,这项研究取得进展的一个意想不到的后果是——相面术的复兴。也许我们对于面部的刻板印象不只是刻板印象,而是对他人性格的真实反映。相应地,越来越多的研究表明,我们可以从一个人的面部表情中识别出他的心理健康、政治倾向和性取向等各种各样的私人信息。 这些说法通常是基于一些猜测性取向的实验,因为这些实验得出的结果比随机猜测更准确。 而问题是,这些猜测并没有比碰运气准确多少,而且往往不如基于更一般知识的猜测准确。 此外,许多这样的研究都是基于这样一种谬论:所有的面部图像对于这张脸的主人都有相同的代表性。虽然这一假设对熟悉的面孔来讲可能是正确的,因为熟悉的面孔很容易从不同的图像中辨认出来,但是对于不熟悉的面孔来说,这当然是错误的——而且根据定义,第一印象是关于不熟悉的面孔的印象。通常,我们不知道两个不同的图像是否代表了相同的(不熟悉的)人,并且,这些图像可以造成完全不同的第一印象。因此,在评估第一印象的准确性时,如何对人类肖像进行采样是一个关键问题。 考虑一下图像采样时的偏差会如何影响对第一印象的准确性的推断。在许多“同性恋者”研究中,参与者被要求通过交友网站上的照片猜测照片发布者的性取向。在最早的此类研究中,猜测准确率约为58%(而随机猜测的准确率为50%)。但由于许多人在交友网站上发布照片时会选择更具代表性的图片,从而去吸引他们想要吸引的人,因此这并不是一个中立的采样方式。 事实上,当这些猜测是通过这些同性恋或异性恋者的朋友在网站上发布的照片进行时,正确率只有52%。这种结果不仅在受试者猜测性取向的时候会出现。在最近的一项研究中,研究人员使用在线交友网站上的照片让测试参与者猜测其社会阶层,以财富作为评估标准。参与者猜测的准确率大约为57%。但是,当这些猜测是基于在标准化条件下拍摄的照片时,准确率就下降到了51.5%。 随着越来越多的面部照片被发布在网络上,试图从这些图像中读出我们“本质”的研究不会消失。在过去的几年中,有一波新的人工智能(AI)研究试图做到这一点。一家科技初创企业已经开始向私营企业和政府提供面部识别服务。去年,两名计算机科学家在网上发布了一篇非同行评议的论文,声称他们的算法仅仅从面部图像中就能推测出人们的犯罪行为。最近,一份著名的期刊接受了一篇论文,这篇论文声称人工智能算法可以从一个人的面部图像中检测出其性取向,其准确度令人惊讶。 然而,同样的问题在人工智能研究中也存在。后者使用强大的算法,可以检测两组图像之间细微但系统的差异。但是,用于训练算法的图像样本和算法本身一样重要。在关于犯罪的论文那篇中,作者提供了一些“罪犯”和“非罪犯”的图片。除了明显的面部表情差异外,“罪犯”穿的是T恤衫,而“非罪犯”穿的则是西装。一个强大的算法很容易就能识别出这些差异,并产生一个看似准确的分类。 在人工智能研究中,“所有的面部图像都具有同样的代表性”这一谬论在人工智能研究中扮演着更为微妙的角色,尤其是当这些算法都在测量二维图像的不变面部特征时。相机到头部的距离,相机参数,轻微的头部倾斜,微妙的表情和许多其他明显的细微的差别都影响着对稳定的形态特征的测量。当这些差异没有被控制的时候,利用人工智能进行研究只是放大了我们人类的偏见。 此外,使用人工智能进行“面部解读”的含义在道德上是令人厌恶的。那篇有关性取向的文章的第一作者声称,他的主要动机是提醒LGBT群体,这种技术有可能对他们造成伤害,尤其是在专制的国家。但是,尽管这项研究声称要识别同性恋者和异性恋者之间的真实形态差异,但它真正做到的是,算法仅能通过公开的同性恋者自己发布的照片识别出他们的性取向——就像普通的人类能够识别出的一样。 这种“科学”的主张,恰好能够激励那些专制的政府将人工智能算法应用于识别公民的肖像照片中。而什么又能阻止他们从这些图片中“解读”情报、政治取向和犯罪倾向呢? 审核员:新闻编辑部-Robin 来源:网易科技 |