|
2016年的“假新闻”已经过时了。今年,人工智能(AI)生成的虚假视频和音频剪辑是新的迫在眉睫的威胁,可能会在即将到来的美国总统大选中影响选民。
上周,新罕布什尔州总统初选的选民收到了一个机器人,乔·拜登总统似乎在劝阻他们参加选举。“本周二投票只会让共和党人再次选举[前总统]唐纳德·特朗普,”录音说。拜登实际上并没有记录下这个电话。它是一种深度伪造,这是一种生成式人工智能,其中算法整理一个人的脸部或声音片段,从中学习,并冒充受试者说出他们从未做过的事情。
How to spot a deepfake—and prevent it from causing political chaos | Science | AAAS
专家们对这种深度伪造的危害感到震惊。“它集许多危险的东西结合在一起:虚假信息、人工智能生成的声音、冒充总统,以及从根本上阻止投票,这是一种非法活动,”西北大学的数据科学家马特·格罗说。
Deepfakes比以往任何时候都更便宜,更容易生产,而且在选举季节我们可能会看到更多。《科学》杂志采访了几位专家,讨论了人工智能生成内容的危险性,以及为什么我们如此努力地认识到它。
深度伪造真的比老式的假新闻更糟糕吗?
多年来,社交媒体上的虚假叙述无疑造成了问题。研究人员发现,人们很容易分享支持他们信仰的假新闻文章,即使他们知道这些故事是假的。内容是否被标记为假新闻并不重要:我们看到虚假内容的次数越多,我们就越有可能记住它是真实的。“通过重复,内容在人们的脑海中根深蒂固,”布朗大学的认知心理学家史蒂文·斯洛曼(Steven Sloman)说。
但这些问题在图像和视频中更加突出,它们往往会以文本所没有的方式留在脑海中。“当我们看到某件事发生时,我们自然而然地相信它,”斯洛曼说。因此,看起来令人信服的深度伪造——即使只是匆匆一瞥——也可以被更广泛地分享和相信。
斯洛曼说,还有另一个危险:深度伪造播下了不确定性。如果人们无法分辨两者之间的区别,他们可能会更有可能声称不支持他们观点的真实图像是深度伪造,无论专家分析或检测软件怎么说。一项研究发现,提醒人们视频可能是人工智能生成的,并不能让他们更好地发现它们。相反,这让他们更有可能不相信他们所看到的一切。从这个意义上说,斯洛曼说,“深度伪造肯定比任何其他类型的媒体都更具威胁性。
但这只是一项研究——大多数人难道不能发现深度伪造吗?
人们当然喜欢这样想——这是问题的一部分。另一项针对 210 名志愿者的研究发现,大多数人相信他们能够将深度伪造视频与真实视频区分开来——但实际上,他们的猜测并不比他们只是抛硬币来决定更准确。
我们在识别音频深度伪造方面也很糟糕,比如新罕布什尔州选民的音频深度伪造。去年一项针对500多名英语和普通话使用者的研究发现,人们只有大约73%的时间正确识别语音深度伪造,并且认为真实音频的伪造率几乎相同。
我们被愚弄并不奇怪,西悉尼大学的计算神经科学家Tijl Grootswagers说。“在我们的生活中,我们永远不必考虑谁是真人谁是假人,”他说。“这不是我们接受过培训的任务。”
但是我们的大脑可能比我们更擅长检测深度伪造。当 Grootswagers 让 22 名志愿者查看 deepfake 头像时,该图像触发了他们大脑视觉皮层的电信号,该信号与他们观察真人时的信号不同。然而,这些志愿者仍然很难猜测哪些图像是真实的。他不知道为什么——也许其他大脑区域在视觉皮层的信号到达我们的意识感知之前就干扰了它们,或者这些信号根本没有在我们这里注册,因为我们以前从未真正需要使用它们。
即使这些信息没有过滤到我们的意识中,我们通常也能感觉到什么时候有“不对劲”,特别是如果给出多个线索。在arXiv上最近发布的预印本中,Groh测试了2200多名在线志愿者是否可以确定拜登和特朗普的政治演讲(其中一半是人工智能生成的)是真的还是假的。他的团队发现,如果人们只阅读文字记录,那么他们很难完成这项任务,但在区分演讲的深度伪造视频方面表现得更好,如果添加音频和字幕,效果会更好。
一旦涉及更多种类的媒体和互动,“就会出现所有这些故障点的机会,人们很容易发现不一致之处,”格罗说。这就是为什么人们在检测简单的人工智能生成的头像方面比复杂的假图像更糟糕,比如上面显示特朗普被捕的图像。
还有其他迹象需要注意吗?
很长一段时间以来,人工智能生成的图像往往包含标志性的赠品,例如形状奇特的手和额外的手指。较新的技术在很大程度上解决了这些问题,但仍然包含微妙的不一致之处——例如,在教皇弗朗西斯穿着蓬松外套的病毒图像中,教皇的眼镜形成了不切实际的阴影。
寻找畸形身体部位的人很可能会错过最新的深度伪造的迹象,这些迹象往往太完美了。这些算法从他们的训练集中产生“平均”的面孔,很少包括现实生活中看到的不寻常的面部特征,Grootswagers说这可以解释为什么人们如此容易上当受骗。“人们认为普通的面孔更有吸引力和更值得信赖,”他说。Groh说,音频深度伪造也是如此。例如,人工智能生成的语音往往不包含嘴唇咂嘴、“嗯”和“呃”,或者真实语音的录音质量差。
许多公司正在开发用于检测深度伪造的软件,但并不总是清楚软件可以检测到图像的哪些方面,或者随着人工智能技术的进步,它是否会跟上。在 Groh 团队 2021 年的一项研究中,计算机视觉软件识别了与人类一样的虚假视频,尽管人类和计算机犯了不同类型的错误。当脸部被颠倒或眼睛被遮住时,人类(而不是计算机)在检测假货方面变得更糟,这表明机器正在发现脸部特征以外的其他东西。
有什么办法可以阻止深度伪造造成严重破坏吗?
一些政府,特别是他们的安全部门,已经开始研究生成式人工智能对选举构成的威胁。美国联邦选举委员会(U.S. Federal Election Commission)提议更新其关于竞选舞弊的规则,将欺骗性人工智能纳入其中。但他们无法阻止人工智能技术的整体发展,检测深度伪造的努力将是一场持续的军备竞赛,Grootswagers说。“我认为问题会变得更糟,因为算法越来越好。
格罗说,就目前而言,深度伪造视频并不一定像人们想象的那么容易制作,尽管他同意,即使在现在到11月大选之间,这项技术也可以改进。制作真正令人信服的视频,例如 2021 年首次发布的病毒式汤姆克鲁斯 deepfake,仍然需要大量资源,包括长相相似的演员和繁重的编辑。
格罗说,让人们更加意识到深度伪造的存在并教他们如何发现它们是关键。他说,教育不同的群体尤为重要——年轻人可能习惯于在他们的视频中添加有趣的滤镜,但老年人可能不知道将一个人的嘴唇与不同的音频剪辑同步是多么容易。
尽管如此,教育只能做这么多。即使大多数人都意识到深度伪造的危险以及如何发现它们,格罗说,“当某种机器人即将到来时,他们会注意这一点吗?这是一个悬而未决的问题。
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-11-23 06:34
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社