|
如何减少假信息带来的巨大危害
虚假信息的传播类似传染病一样可在人群中流行,信息时代虚假信息的传播更加泛滥,给人类社会带来巨大危害。如何预防和减少虚假信息的毒害,已经成为一种研究课题。但是很不幸,大部分社交平台都不太可能真心压制虚假信息,因为虚假信息能带来更多流量。有的学者提出“多思考少转发”的建议,有的人通过教育末端用户识别信息的能力,通过类似疫苗接种一样避免被错误信息误导的作用。
How to mitigate misinformation | PNAS
自2016年美国总统大选首次引起该问题引起广泛关注以来,这个问题已经出现——从“假新闻”到COVID-19大流行期间的“错误信息流行”,再到一系列学术研究中的“错误学术信息”。无论如何,这种混乱、误导、操纵和直接谎言的有毒混合物现在既威胁着公共健康,甚至威胁着西方人对民主选举有效性的信仰——更不用说我们对真理的任何共同理解了。
没有人声称有一个完整根治错误信息传播的解决方案。但研究人员已经开始试验可能有所帮助的技术组合。“说到解决方案,这是一个非常困难的问题,”杰文·韦斯特说,他是西雅图华盛顿大学的生物学家出身的信息科学家,也是广泛使用的数据素养课程“称为废话”的共同创造者(1)。当你考虑到打击虚假信息的斗争都发生在社交媒体平台上,比如脸书、YouTube和X(以前称为推特)时,这尤其困难。
通常情况下,这些公司通过对最广泛分享的帖子进行事实核查来解决这个问题。但当他们面对擅长各种高科技造假的坏人时,每天监管数十亿个的帖子是极其困难的。该工具包的范围从可以生成数百万虚假用户资料和虚假新闻帖子的软件“机器人”,到最新的基于人工智能(AI)的聊天机器人,它们可以欺骗人们,让人们以为自己在与另一个人说话。
当然,这些平台必须在今天的文化战争环境中进行监管,在这个环境中,任何核实事实或缓和讨论的企图都会立即被谴责为强加一些意识形态议程的阴谋。
好消息是,近年来对错误信息问题的大量研究。“这是一个非常快速移动的空间,”纽约大学心理学家杰伊·范·巴维尔说。“每隔一两个星期,就会有一篇大文章发表。”而且,随着研究人员越来越了解人们如何理解并分享错误信息,他们已经开始提出下一代解决方案,这些平台可以大规模部署——而这并不能告诉人们该怎么想(2,3)。例如,准确性评级众包,鼓励用户在分享某些内容之前更多地考虑准确性的推动,甚至是一种针对常见欺骗技巧的心理接种。
到目前为止,还没有人声称自己有一个完整的解决方案。但是研究人员已经开始试验这些技术的组合,使干预措施相互加强,变得比单独的任何一种干预措施都更有效。在这项工作中,我们可以开始瞥见一个可扩展的、基于证据的“公共卫生”系统的轮廓,该系统可以防止错误信息瘟疫的蔓延。
会在社交媒体上运行你的大脑
乍一看,人们可能会想,“为什么要麻烦治理?”为什么不让每个人都看到一切,这样他们就可以自己做出决定呢?
一个常见的反驳是:没有人有时间、专业知识或胃口来处理无穷无尽的毒性、骚扰和废话。如果一个平台不做一些努力来缓和讨论,几乎所有有信誉的平台仍然这样做,否则用户就会离开平台。
但另一个答案是,今天的社交媒体环境很少是一个中立的辩论论坛。通常,这些平台会积极地奖励错误信息的传播,这种意愿如此强烈,以至于一些用户经常分享与他们的政治倾向相冲突的帖子。
例如,在最近的一项实验室实验中,自称的社交媒体习惯用户分享的错误信息是自称的普通用户的8倍(4)。根据团队领导Gizem Ceylan,耶鲁大学管理学院的博士后,实验(包括四个研究)然后仔细观察这些习惯性的用户,发现所有的“喜欢”,“分享,”和评论他们的帖子似乎给他们的情感验证类似于高糖零食。他们对这些精神奖励的渴望早就教会了他们分享那些得到最强烈回应的帖子——这些帖子可能不是来自《纽约时报》的经过仔细事实核查的文章。相反,他们学会了发布那些令人惊讶的、情绪激动的、引人注目的或针对他们和朋友鄙视的人的东西:“准确追踪虚假信息特征的内容,”赛兰说,其他研究人员表明,虚假信息会比真相传播得更远、更快(5)。
社交媒体平台确实试图阻止至少一些骗子、阴谋论者和煽动者,他们提供那些非常可以点击的假货。根据印第安纳大学计算机科学家菲利波·门泽,他花了过去十年开发工具检测和地图的活动机器人和其他在线欺骗技术,大型平台如脸书、YouTube和(X)推特经常扰乱数百的秘密,但高度协调的“信息操作”,经常被政客、倡导团体和外国演员播种不和和错误信息。
不幸的是,门泽补充说,这些平台对于“超级传播者”并没有那么困难,他们甚至没有试图隐藏起来。他解释说:“很多有害和错误信息不是由未知的机器人传播的,而是由知名的,甚至是经过验证的用户传播的。”通常,这些人都是有影响力的人、精英、政客或名人,他们正在赚钱、推动政治议程、争取事业或反对疫苗。门泽说:“平台非常不愿意拿下他们,因为这些人有很多粉丝,这意味着他们产生了大量的参与度,平台从中赚了很多广告收入。”
相反,大多数大型社交媒体平台都严重依赖事实核查,事实核查已经成为一个全球行业,具有无党派的专业标准,以及关于来源、方法和资金的透明度。例如,脸书将发送其最受欢迎、最广泛分享的帖子,由其90个国际事实核查合作伙伴之一进行评估。这些公司认为是虚假或具有误导性的帖子会在脸书的新闻推送上标注并降级,这样看到它们的用户就会减少。
但门泽尔指出,事实核查也有其局限性,必须小心执行。他说,如果你不强调什么是真实的,而不是重复错误的说法,“那么人们就会记住这个说法,而不是说它是错误的。”这样的努力就会适得其反。尽管如此,独立研究人员已经证实,精心制作的揭穿标签具有真正而持久的影响(6)。麻省理工学院剑桥分校的认知科学家大卫·兰德说:“给某件事上贴上‘不真实’的标签是一件深刻的事情。”“这真的减少了人们对这篇帖子的信念和分享。”在最近对阿根廷、尼日利亚、南非和英国的用户进行的一项事实核查实验中,这种信念的减少至少达到了0.59分——即使是在2周或更长时间后(7)。
即便如此,世界上还没有足够的专业事实核查人员来审查每天数十亿人的帖子。加拿大萨斯喀彻温省里吉纳大学的心理学家戈登·彭尼库克指出,即使有,“你总是在东西上贴上创可贴:只有在它已经传播出去时,你才能揭穿它。”
认知接种
为了限制这种传播,一些研究人员正试图帮助用户自己识别错误信息。英国剑桥大学的心理学家桑德·范德·林登说,“至少我们需要让人们在操纵发生时发现操纵,这样他们就能做出“关于分享什么,买什么,甚至相信什么”的真正明智的决定。
范德林登说,尽管像华盛顿大学的“骂废话”这样的数字扫盲课程在这方面做得很好,但他和他的同事们一直在研究更快、更广泛适用的技术,灵感来自几十年对接种心理形式的研究。
也被称为先发制人的揭穿,或“预测”,这种认知接种就像一个真正的疫苗,他说:“你暴露人们削弱剂量的谎言,或用于产生谎言的技术,这样人们就可以建立精神抗体来中和错误信息在未来”(8)。而且,因为不可能预先编造每一个关于气候变化或移民的谎言,而且由于信誉良好的社交媒体平台不愿充当真相的仲裁者,他认为,最好的策略是选择一种广谱疫苗——专注于操纵技术。范德林登说,从亚里士多德时代起,我们就知道坏人最喜欢的技巧了。虚假的专家、虚假的困境、人身攻击、虚假地拨动心弦,拼命寻找方便的替罪羊——“这些都是左翼和右翼都能同意的具有误导性的东西。”
2019年,范德林登和剑桥心理学家乔恩·伦森贝克对坏消息进行了测试,这是一款角色扮演游戏,玩家被介绍这些操纵技巧,然后因制作令人信服的错误信息活动并吸引追随者而获得分数(9)。范德林登说,前后测试表明,游戏使玩家识别现实生活中错误信息的能力提高了20到25%,这种效果至少持续7到10天。他说,一旦他们的实验完成,团队就免费在网上公开,“它在Reddit上疯传。”有这么多的用户来到这里,我们不得不购买更多的云空间。”
“如果你能让人们思考准确性,那么他们就不太可能分享糟糕的内容。”
范德林登说,当大流行爆发时,该团队推出了一个类似的游戏,Go Viral,旨在防止玩家遭受COVID-19错误信息的侵害。据英国政府称,在英国政府、世界卫生组织和联合国的支持下,这款游戏在社交媒体上的点击量超过了2亿次。尽管令人满意的是,游戏至少需要5到20分钟才能完成——在社交媒体上是很长的时间——一旦游戏离开实验室,它们大多会吸引那些已经对他们的信息开放的人。
因此,鲁森比克、范德林登和其他人设计了一种覆盖范围更广泛的干预措施(10)。他们与谷歌合作,制作了一系列2分钟的视频,使用幽默和流行文化参考来说明六种最常见的操作技巧。在一个例子中,他们描述了一种经常被用来将人们推向极端主义的错误的二分法。在《星球大战:情节3:西斯的复仇》的一个片段中,阿纳金说:“如果你不和我在一起,那么你就是我的敌人!”欧比万回答说:“只有一个西斯才能进行绝对的交易!”视频的叙述者最后总结道:“没有人想成为西斯人。”
范德林登说,在实验室经过大量改进后,这些视频进行了现场测试,将它们放入谷歌YouTube平台上通常用于广告的时间段。他说,这项活动已经向数百万真正的YouTube用户发起,“我们能够随机选择大约30%的人,要么接触我们的治疗视频,要么接触关于冷冻烧伤的控制视频。”然后,在大约18小时后的随访中,看到治疗视频的人在测试标题中认识到操作技术方面比对照组好5-10%。
这并不是一个变革性的变化。但YouTube已经在欧洲部分地区和其他地方广泛实施了这些视频,这已经足够好了。范德林登说,虽然这种效果确实会随着时间的推移而减弱,但团队已经证实,以简短提醒视频的形式给人们“增强注射”可以让认知免疫保持至少3个月(这是他们测试过的最长时间)。
多思考,少分享
尽管如此,接种疫苗本身对错误信息问题的影响还是很有限的。凯兰说,如果没有别的,“它把很多责任推给了个人”,而不是社交媒体算法,在用户分享错误信息时提供心理奖励。她说:“我认为,除非我们的奖励机制发生结构性改变,否则用户的行为不会真正改变。”
这就是为什么另一种错误信息研究试图促使社交媒体用户在分享某件事时少关注参与度,而多关注准确性——或者,正如韦斯特在他给学生的贴纸上写的那样:“多思考,少分享。”
当你要求用户停下来思考时,就像兰德和彭尼库克在2019年所做的那样,他们惊人地擅长判断帖子的准确性——不管党派关系如何。兰德说:“如果你随机询问15到20名Facebook用户,‘这看起来有多准确?’”然后平均他们的回答,他们很好地再现了一个专业的事实核查人员的想法”(11)。兰德说,这与大量关于大众智慧的文献是一致的,并认为众包可能是平台对不准确内容的标签,并克服专业事实核查的规模挑战。
2021年,兰德、彭尼库克和他们的同事们将这一思路扩展到了他们称之为“准确性提示”(12)。兰德再次说,这个想法与之前心理学上关于启动效应的研究一致:“如果你能让人们思考准确性,那么他们就不太可能分享糟糕的内容。”他说,这甚至并不困难:你所需要的只是一个弹出窗口,让用户对一个随机标题的准确性进行评级,或者说明准确性对他们是否重要——任何能让他们思考真相的事情。
该小组通过一项真实世界的试验验证了他们的实验室结果,该试验要求5300多名(前马斯克)推特用户对一个非政治标题的准确性进行评分。在随后的24小时里,这些用户分享的推文明显倾向于独立事实核查者已经认为更可靠的来源,如CNN和纽约时报,而不是那些被认为不太可靠的来源,如布莱巴特和《每日来电》。随后的实验已经证实,准确性提示可以减少不良内容共享约10%——兰德说,这并不显著,但这是值得的,而且平台很容易常规实现(13)。
与此同时,在巴塞罗那的德尔马医院研究所,神经科学家克拉拉·普雷图斯与纽约大学的范·巴维尔和其他机构一起进行了初步测试,以更直接地提高准确性:给用户一个按钮,将帖子标记为“误导性”(14)。Pretus说,在一项针对约2500名美国和英国用户的实验室实验中,25%的人表示,高误导性的数量会让他们不太可能分享一个帖子——但有一个关键的警告。她说:“这可能对普通民众非常有效,”但很容易让政治派极端的用户适得其反。
Pretus说,在一项对美国和西班牙的1600多名社交媒体用户进行的早期研究中(15人),她和她的合著者发现,这些高度政治化的人是最多产的错误信息分享者之一。“这是一个关于身份认同的问题,”她说。“他们不仅用它为自己的事业运动,而且表明他们是他们团体的一部分。”但这也使他们成为对不信仰者最极度不信任的人。她说:“因此,我们目前的干预措施的一个重要方面是,用户只能看到来自他们群体中其他人的‘误导性’标签。”她说,有了这个限制,这些标签似乎相当有效。她和她的同事们现在正在进行下一步:在真实的社交媒体环境中与真实用户测试这项技术。
深度防御
人们普遍认为,这些干预措施本身都不是打击虚假信息的灵丹妙药。前进的方法是找到结合揭穿、预测、精确度轻推等的方法。
一个初步的例子可以在谷歌共同资助的未发表的研究中找到,范德·林登说:它表明,当接种视频与准确的推动交替进行时,两种干预措施的效果都会增强。在另一个例子中,韦斯特最近与华盛顿大学的同事们一起开发了一种计算机模拟方法,将错误信息的传播视为一种传染,并根据2020年大选期间1050万条错误信息推文的真实数据进行了校准。“这是一个非常简单的模式,”韦斯特说。“但它在捕捉我们在真实数据中看到的动态方面做得很好,”比如当一篇帖子走红时,活动就会激增。从那里,他和他的同事们使用模拟模型的潜在干预措施的影响,如事实核查,准确性推动,或直接暂停最活跃的超级读者发现,当结合使用时,这些干预措施可以加强和错误信息的总量减少50%或更多(16)。
但这种协调防御并不是个人自己能做的事情,韦斯特说:政府、公司和其他机构采取某种协调行动的必要性早已不可避免。
考虑到生成式人工智能的惊人进步,这一点尤其紧迫。这类算法包括令人难以置信的逼真的“深度伪造”——几乎不可能区分出真实内容的图像、视频和音频文件——以及由ChatGPT等软件提供的同样真实的文本和对话。范德林登说:“人工智能现在正在使宣传的创造民主化。”他说:“任何能够上网的人都可以让ChatGPT自动发起大规模欺骗人们的活动。”——甚至进行大规模的微定位,向人工智能提供现成的浏览数据,并告诉它为每个人量身定制操纵信息。
Ceylan表示,这些大型社交媒体平台正在谨慎行事,不愿做任何可能影响其用户参与度(从而影响其广告收入)的事情。但她指出,那些信誉良好的公司仍然有强烈的动机来控制局面。根据她的研究,大多数人说他们对参与或重新分享帖子犹豫不决,而且越来越难知道哪些信息是对的还是假的。“如果我们能创造一个环境,让人们相信他们看到的信息将是准确的,”凯兰说,“我认为这将对参与产生积极影响,而不是负面影响。”
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-12-24 09:24
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社