近年来,人们在分辨真假信息方面遇到越来越多的挑战,尤其是网络上充斥大量的虚假新闻和夸大宣传。研究表明,人类在判断真假话方面表现得并不好。
图源 Pexels
据了解,传统测谎手段,例如测谎仪,因其准确性问题而饱受诟病。一些人认为,人工智能 (AI) 可以帮助我们提高识别谎言的准确率。未来的某一天,基于人工智能的测谎系统或许能帮助我们识别社交媒体上的虚假信息、评估网络上的各种言论,甚至还能甄别求职者的简历和面试回答中的夸大之处。然而,问题在于我们是否会信任这些系统,以及它们是否值得信赖。
德国维尔茨堡大学经济学家 Alicia von Schenk 及其团队最近研发了一款人工智能测谎工具,该工具的准确率明显高于人类水平。他们进行了相关实验以探究人们如何使用这一工具,实验结果显示,使用该工具的人在识别谎言方面确实有所提升,但同时也会导致更多的人被怀疑说谎。
研究人员在发表于 iScience 期刊的论文中提到,他们让参与者书写周末计划。其中一半的参与者被要求撒谎,并会因为说服人相信谎言而获得少量金钱奖励。研究共收集了来自 768 人的 1536 份陈述。
随后,研究人员利用谷歌的人工智能语言模型 BERT,对其中 80% 的陈述进行训练,以帮助算法区分真假话。测试结果表明,该工具能以 67% 的准确率识别出剩余 20% 陈述的真伪。相比之下,人类的平均准确率仅为 50% 左右。
为了解人们如何借助人工智能工具识别谎言,von Schenk 团队又将另外 2040 名志愿者分成小组进行了一系列测试。
其中一项测试显示,当人们可以选择支付少量费用使用人工智能测谎工具并获得奖励时,只有三分之一的人会选择使用该工具。von Schenk 推测,这可能是因为人们对这项技术持怀疑态度,或者高估了自己的识谎能力。
然而,选择信任该工具的那三分之一人对其表现出了极大的依赖。“当人们主动选择依赖这项技术时,他们几乎都会遵循人工智能的预测…… 他们非常信任其判断。”von Schenk 说。
这种依赖会影响我们的行为。通常情况下,人们倾向于相信他人说的是实话。这项研究也印证了这一点 —— 尽管参与者知道一半的陈述是谎言,但他们只标记出其中的 19%。然而,当人们选择使用人工智能工具后,标记为谎言的比例上升到了 58%。
在某种程度上,这或许是一件好事。此类工具可以帮助我们在日常生活中识别更多的谎言,例如社交媒体上的虚假信息。
但另一方面,这也会破坏信任,而信任是人类行为的基础,有助于我们建立良好的人际关系。如果准确的判断建立在社会关系的恶化之上,那么这样的准确性还有价值吗?
其次,准确率问题也不容忽视。研究人员承认,他们的目标仅仅是让 AI 比人类表现更好,但对于社交媒体内容的真实性判定或求职者的简历审核等场景来说,仅仅“比人类强”可能还不够,因为这会带来更多的误判和指控。
值得一提的是,传统测谎手段也存在着缺陷。测谎仪旨在测量心率和其他生理唤醒指标,因为人们曾认为压力是说谎者的特有生理反应。但事实并非如此,这也是为什么测谎仪结果在美国法庭上通常不被采信的原因。
von Schenk 指出,由于人工智能测谎工具易于大规模应用,其带来的影响可能会更大。测谎仪每天只能检测少数人,而人工智能测谎工具的应用范围几乎是无限的。
“鉴于当下充斥着大量虚假新闻和错误信息,此类技术的确有一定的益处,”von Schenk 说,“然而,我们确实需要对其进行严格测试,以确保其远超人类的准确率。如果人工智能测谎工具只会带来大量的误判,那么或许放弃使用才是更好的选择。”