人工智能在面部识别技术方面的发展表现出色,甚至有时超越了人类的表现。然而,一项最新研究发现,尽管AI在静态图像上的识别能力强大,但在处理动态面部表情时,其表现与人脑存在显著差异。
图源备注:图片由AI生成,图片授权服务商Midjourney
研究团队来自达特茅斯学院与博洛尼亚大学,他们针对深度卷积神经网络(DCNNs)进行了研究,这是人工智能中用于识别视觉图像的关键组件。这种网络的命名和结构都灵感来自人脑的视觉通路组织,具有逐层增加复杂性的多层结构。
然而,问题出现在人脑处理动态面部表情时。当前的AI设计主要用于静态图像的识别,而这项研究发现,AI无法有效模拟人脑在处理变化表情的情境中的工作方式。
研究中,团队通过使用不同族裔、年龄和表情的面部视频进行测试,与以往主要使用静态图像不同。结果显示,尽管人脑对面部的神经表征在参与者之间高度相似,而AI对面部的人工神经编码在不同DCNNs之间也高度相似,但是与DCNNs的脑活动相关性较弱。这表明,目前的人工神经网络仅能捕捉到人脑信息的一小部分,尤其是在处理动态面部时。
研究的共同主笔之一Jiahui Guo士表示:“科学家们试图将深度神经网络作为了解大脑的工具,但我们的研究结果表明,这个工具目前与大脑相去甚远。”
该研究强调,人脑在面部处理中不仅仅是确定一个面孔与另一个面孔是否不同,还包括推断其他信息,如思维状态、友好度和信任度。而当前的DCNNs仅被设计用于识别面孔,无法涵盖这些复杂的认知过程。
詹姆斯·哈克斯比教授指出:“当你看着一个面孔时,你获得了关于那个人的很多信息,包括他们可能在思考什么、感觉如何,以及他们试图传达什么样的印象。”相比之下,AI只能确定一个面孔是否与另一个不同,无法进行更深层次的认知处理。
研究建议,为了使AI网络更准确地反映人脑处理面部信息的方式,开发者需要构建基于真实生活刺激的算法,而不仅仅是依赖静态图像。这意味着在设计人工智能系统时,需要考虑动态面部表情的复杂性,以更好地模拟人类认知和社交互动的过程。