王飞跃的个人博客分享 http://blog.sciencenet.cn/u/王飞跃

博文

[转载]人们更偏爱假消息?《科学》发文探讨假消息的科学

已有 2094 次阅读 2018-3-13 09:37 |系统分类:论文交流|文章来源:转载

人们更偏爱假消息?《科学》发文
探讨假消息的科学


1.jpg

 

麻省理工学院(MIT)在2018年3月9日的《科学》(Science) 期刊上发表题为《网络真假消息的传播》(The spread of true and false news online)的文章,得出如下结论:假消息传播比真消息传播更远,更快,更深、更广,尤其是政治性的假消息。而且,假消息一般比真消息更新奇,说明人们更喜欢分享新奇的消息。假消息激发的是恐惧、恶心、以及惊奇,而真消息激发的是期待、伤心、高兴以及信任。自动机器人(即网络机器人)在真假消息传播加速方面效率一致,这就表明是人类导致假消息传播得比真消息更多。人类力量在社交网络消息传播中的影响之前也在关于人肉搜索的研究中被证实了(16-18)。


在同一期的《科学》期刊上还刊登了一篇题为《假消息的科学》(The science of fake news)的文章,详细阐述了假消息的定义、历史、流行与影响以及可能的干预等内容,呼吁各界重视对假消息的干预。而早在90年末,中国科学院自动化研究所的王飞跃教授在研究开源情报时,就提出了假消息也是消息,同真消息一样,也是客观信息空间中真实的点,因此我们必须严肃对待,甚至应该要花更多的时间和精力来应对假消息的观点。


假消息的科学

——处理假消息需要多学科的努力


作者:李娟娟、孙星恺、陆浩、赵学亮


在互联网时代,虚假消息的兴起突显出长期存在的抵制错误消息的制度堡垒正受到侵蚀。对此的关注是全球性的。然而,关于个人、机构和社会易受恶意行为者操纵的脆弱性,仍有许多未知之处。需要一个新的保障制度。下面,我们讨论了现有的关于假消息信仰的社会和计算机科学研究,以及它的传播机制。假消息由来已久,但我们关注的是最近出现的、以政治为导向的虚假消息的大量出现所引起的科学问题。


 什么是假消息?

 

我们将“假消息”定义为,在形式上而不是在组织过程或意图中模仿新闻媒体内容的伪造信息。假消息机构,反过来,缺乏新闻媒体用以确保信息的准确性与可信性的编辑规范和程序。假消息与其它混乱信息有重叠,比如错误信息(虚假或误导性信息)和虚假信息(故意散布以欺骗他人的虚构信息)。  

     

2.jpg

 

假消息在政治背景下首先引起了人们近期的关注,但在诸如疫苗接种、营养和股票价值相关主题的信息发布中也有记载。这尤其有害,因为它寄生在标准新闻媒体上,既受益于同时也损害了它们的可信度。


一些媒体——尤其是First DraftFacebook——支持“假消息”一词,因为假消息可作为政治武器(1)。我们之所以保留,是因为它作为一种科学结构的价值,以及它的政治重要性引起人们对一个重要问题的关注。


 历史背景


新闻的客观性和平衡性准则源于记者们对第一次世界大战中广泛使用宣传的强烈反对(特别是他们自己在传播中所起的作用),以及20世纪20年代企业公关的兴起。由20世纪占主导地位的信息传播(印刷和广播)技术造成的地方和国家寡头垄断维持了这些准则。互联网降低了新竞争者的进入成本——其中许多拒绝接受这些准则——并破坏了传统新闻源头的商业模式,而这些源头曾获得公众高度的信任和信誉。公众对大众传媒的信任在2016跌至历史低点,尤其是在右翼,51%的民主党人和14%的共和党人对大众媒体作为新闻来源表示“相当大的信任”(2)。


美国经历了一场地理和社会政治并行的演变。过去40年中,党派偏好的地理两极分化急剧增加,减少了跨领域政治互动的机会。同质的社会网络反过来又减少了对其它观点的容忍,放大了态度上的两极分化,增大了接受意识形态相容消息的可能性,并增加了新信息的封闭性。对“另一面”(情感两极分化)的厌恶也有所增加。这些趋势创造了假消息能够吸引大众观众的背景。


 流行与影响

      

假新闻现象有多普遍?假新闻对每个人会产生什么影响?对于这些基本问题,几乎没有科学的答案。


在评估假新闻的流行程度时,我们主张将注意力集中在分析文章的来源,即信息发布方,而不是将注意力集中在分析文章本身,因为我们认为定义假新闻的重要因素是分析信息发布方意图和行为。同时,对于信息发布方的关注也使我们能够避免陷入单纯评价单篇新闻真实性的泥潭。


一项评估流行虚假新闻传播的研究表明,在2016年美国大选前的一个月里,每个美国人平均会接收到1-3条来自知名假新闻发布机构的虚假新闻报道(3)。而这可能仅仅是一个保守的估计,因为这项研究只跟踪了156条虚假新闻。另一项研究报告称,Twitter 中的虚假信息通常会被更多的人转发,比真实信息传播的更快,特别是政治相关的话题(4)。Facebook 估计,恶意行为账户所传播的信息占其平台上公民发布信息总量的不到十分之一,然而,Facebook并没有给出分析的细节。


通过点赞、分享和搜索信息,自动机器人(自动模拟人类账号)可以放大假新闻的传播数量级。根据最近的研究估计,通过分享行为、好友数量、语言习惯等可观测特征构建的自动机器人自动识别模型,检测出Twitter活跃账户中9%-15%为自动机器人。同时,Facebook估计,大约有6000万的自动机器人正在危害其平台。这些机器人负责2016年美国竞选期间散布大量的政治相关信息,一部分相同机器人后来被用来影响2017年的法国大选(8)。自动机器人也被植入更智能的操纵算法,用来在广泛的范围预测哪些人群是信息的潜在受众。事实上,Facebook的一份白皮书称,在2016年美国大选期间,其平台普遍存在通过自动机器人来操控选举的行为。

3.jpg

 

然而,在没有方法从一个给定的平台获取机器人账户和人类账户的样本时,就必须谨慎地解释任何对于机器人盛行率的估计。机器人检测将永远是一场猫鼠游戏,也许大量未知的自动机器人并未被检测到。当然,每一次对自动机器人的成功检测,都将会激发自动机器人制造商产生新的对策。因此,自动机器人的检测与识别将是一项正在进行且持久重大研究挑战。我们知道,与真实新闻一样,虚假的新闻在社交媒体中更加疯狂的传播。但是,知道有多少人接收或分享一条假新闻,并不等同于知道有多少人阅读或受到其影响。虚假新闻如何对政治行产生中长期影响(是否投票?如何投票?)的研究文献基本不存在。证据表明政治阵营直接游说民众的行为仅仅会对选举行为产生有限的影响。但是,通过社交媒体散布大量的虚假新闻可能会强化其对选民的影响,因为,分享行为隐含表明了对政治阵营的支持。除了对选举的影响外,普遍认为媒体影响的具有更广泛的途径,从犬儒主义,冷漠主义到激励极端主义。而在这些方面,几乎没有考虑对假新闻产生的影响进行评价。


 潜在的干预


什么样的干预措施可能有效遏制假新闻的流向和影响? 我们确定了两类干预措施:(i)旨在提升个人评估他们遇到的假消息的能力;以及(ii)结构上的改变进而防止假消息的传播。


提升个人能力

   

4.jpg

有许多形式的事实检查,从评估新闻报道事实主张的网站,如PolitiFactSnopes,到华盛顿邮报和华尔街日报等可靠新闻媒体对新闻报道对内容相关信息的评估,以及一些相关机构给出的新闻背景信息,Facebook也正在使用这类信息。


尽管事实检查有明显的好处,但依然缺乏对其具体效果的科学验证。这可能反映了集体认知更广泛的倾向性,以及社会的结构性变化。一般来说人们不会质疑信息的可信度,除非它违背了他们的先入之见。否则,他们可能不加批判地接受信息。人们也倾向于将他们的信仰与价值观结合起来。


研究还进一步表明,人们更喜欢能证实他们已经存在的认知观点的信息,普遍认为那些与其先前存在的信念相一致的信息比那些不一致的信息更有说服力(确认偏见),并倾向于接受令他们满意的信息(欲望偏向)。先前的党派和意识形态信仰可能会让他们不愿意接受对特定假新闻报道进行事实核查。


在某些情况下,事实核查甚至可能适得其反。关于信息回忆以及政治上的熟悉性偏见的研究表明,人们倾向于记住信息或者他们对信息的看法,往往会忽视信息相关的背景。


而且,人们更倾向于认为他们熟悉的信息是真的(10)。因此,即使在事实核查的情况下,重复虚假信息可能会增加个人接受真实信息的可能性。不过相关研究结果表明这依然具有两面性(11)。


虽然实验和调查研究已经证实,当错误信息不断被重复时,人们就越不会怀疑信息的真实性。但如果错误信息能够及时地被遏制,这种现象可能就不会发生。不过还有一些研究表明,重复纠正错误信息甚至可能是有益的。需要进一步研究解释这些矛盾并确定事实核查干预措施最有效的条件。

 

5.jpg 

   

另一个更长期的方法是通过教育改善个人对信息来源质量的评估。为中小学注入鉴别重要信息能力培训的努力日益增多(12)。但是,这样的努力是否能够提高信息可信度的评估或者是否会随着时间的推移而持续存在尚不确定。强调虚假新闻也可能会降低真实新闻媒体的可信度,因此很有必要对不同的教育干预措施进行严格的评估。


基于平台的监测与干预:算法与自动机器人


互联网平台是假消息最重要的推动者和最基本的传输渠道。建立一个带有专业新闻机构外部标志的网站并不需要很大额的费用;而且,通过在线广告和社交媒体传播实现内容的货币化也很容易。互联网不仅为假消息的发布提供了媒介,还为它们的活跃扩散提供了工具。


约47%的美国人通过经常或偶尔通过社交媒体获取信息,其中Facebook是最主要的渠道(13)。社交媒体是假消息网站的关键传输渠道(3)。根据国会证词,俄罗斯在2016年的美国大选中成功的操控了几乎所有的主要平台(7)。


互联网平台和社交媒体应该如何帮助降低假消息的传播及影响力?Google,Facebook以及Twitter是我们与新闻媒体、亲友的常用关系调节媒介。一般地,它们的商业模式是通过广告实现内容的货币化,使用复杂的统计模型预测和最大化用户对内容的关联度(14)。通过调节这些模型强化信息质量应该是有可能的。


互联网平台应该能够通过内容的算法排名为消费者提供优质信息。它们应当能够最小化政治信息的个性化,而且强调信息趋势的函数也应该寻求排除自动机器人行为。更一般地来说,这些平台应该监管机器人或者电子人等的自动化的信息传播,尽管它们可能会在未来设计出应对措施。


当然,有些平台已经对以上的一些措施做出了尝试(5,15):Facebook宣布已经改进算法来监管信息质量;Twitter也宣布屏蔽了一些关联俄罗斯假消息的账户。但是,这些平台没有向科研机构提供更多的可供评估的细节或者交由同行评议,这就使得政策制定者和社会大众在使用这些平台时仍旧存在疑问。


我们呼吁这些平台与独立科研机构合作研究假消息的评估与干预问题。目前关于假消息的研究很有限,没有综合性的数据搜集系统对提供假消息的普适系统如何演化提供动态的理解。即便Google有基础代码也无法重造Google 2010,因为它的模式涉及代码、内容以及用户之间的复杂互动。但是,记录Google 2018却是可能的。研究者需要对这些主要平台如何过滤信息进行严格的不间断的审计。


从产业界和学术界的角度,科学合作存在诸多挑战。但是,道德和社会责任要求这些平台为假消息的科学研究提供他们独有的数据。


基于平台的政策的有效性可能来源于政府监管也可能来源于自我监管。直接的政府监管可能跟消息本身的风险一样敏感。一般来说,政府或者平台的直接干预导致用户看不到相关内容都会引起政府或者企业审查方面的问题。


一个备选方案是诉诸法律,例如,对假消息的传播造成的直接而具体的伤害进行侵权诉讼。在一定程度上,如果某个在线平台明知是假消息还坚持传播的话,现有的宪法应该有相应的途径来要求其承担相应的责任,这就会反过来迫使平台进行更有效的干预。然而,在美国,1996年的通信标准法案中的条款几乎为平台的假消息传播提供了全面的豁免。对于当前政治体制的任何改变都会面临棘手的问题:在何种程度上平台内容应该受到被害人的质疑。欧洲关于搜索引擎中“被遗忘的权利”正在测试这些问题。


结构性干预普遍提高了对于尊重企业和个人隐私的合法关注。但是,正如20世纪的传媒公司形成了信息应该向哪些人曝光的体系,更多的互联网寡头也已经在全球范围内塑造人类体验。摆在我们面前的问题是:这些巨大的力量应该如何被训练,以及如何使得他们担负责任。


未来的议程

   

我们的呼吁是促进跨学科研究,以减少假新闻的传播并解决它所揭示的潜在问题。美国新闻媒体在20世纪初的失败导致了新闻规范和实践的兴起,虽然这些新闻规范和实践并不完善,但通过努力提供客观,可靠的信息,对我们来说很有帮助。我们必须在21世纪重新设计我们的信息生态系统。这一努力的范围必须是全球性的,因为许多国家(其中一些国家从未开发过强大的新闻生态系统)面临着比美国更为尖锐的假新闻和真实新闻的挑战。更广泛地说,我们必须回答一个基本问题:我们如何创建一个重视和推动真理的新闻生态系统和文化?

 

参考文献

1. C. Wardle, H. Derakhshan, “Information disorder: Toward an interdisciplinary framework for research and policy making” [Council of Europe policy report DGI(2017)09, Council of Europe, 2017]; https://firstdraftnews.com/wp-content/uploads/2017/11/PREMS-162317-GBR2018-Report-de%CC%81sinformation-1.pdf?x29719.

2. A. Swift, Americans’ trust in mass media sinks to new low (Gallup, 2016);www.gallup.com/poll/195542/americanstrust-mass-media-sinks-new-low.aspx.

3. H. Allcott, M. Gentzkow, J. Econ. Perspect. 31, 211 (2017).

4.  S. Vosoughi et al., Science 359, 1146 (2018).

5. J. Weedon et al., Information operations and Facebook (Facebook, 2017); https://fbnewsroomus.files.wordpress.com/2017/04/facebook-and-information-operations-v1.pdf.

6. O. Varol et al., in Proceedings of the 11th AAAI Conference on Web and Social Media (Association for the Advancement of Artificial Intelligence, Montreal, 2017), pp. 280–289.

7. Senate Judiciary Committee, Extremist content and Russian disinformation online: Working with tech to find solutions (Committee on the Judiciary, 2017); www.judiciary.senate.gov/meetings/ extremist-content-and-russian-disinformation-onlineworking-with-tech-to-find-solutions.

8.  E. Ferrara, First Monday 22, 2017  (2017).

9.  J. L. Kalla, D. E. Broockman, Am. Polit. Sci. Rev. 112, 148 (2018). 10. B. Swire et al., J. Exp. Psychol. Learn. Mem. Cogn. 43, 1948 (2017). 11. U. K. H. Ecker et al., J. Appl. Res. Mem. Cogn. 6, 185 (2017).

12.  C. Jones, Bill would help California schools teach about “fake news,” media literacy (EdSource, 2017); https:// edsource.org/2017/bill-would-help-california-schoolsteach-about-fake-news-media-literacy/582363.

13.  Gottfried, E. Shearer, News use across social media platforms 2017, Pew Research Center, 7 September 2017; www.journalism.org/2017/09/07/ news-use-across-social-media-platforms-2017/.

14.  E. Bakshy et al., Science 348, 1130 (2015).

15. C. Crowell, Our approach to bots & misinformation, Twitter, 14 June  2017; https://blog.twitter.com/official/ en_us/topics/company/2017/Our-Approach-BotsMisinformation.html.

16. Wang, T. , Zhang, Q. , Fu, J. , Wang, X. & Zheng, S. (2013). What is the Difference of Human Flesh Search Dissemination?. Pacific AsiaWorkshop on Intelligence and Security Informatics, (PAISI’13, in conjunction IJCAI’13). Beijing. China: IJCAI.

17. Wang, F.-Y. , Zeng, D. , Hendler, J. , Zhang, Q. , Feng, Z. , Gao, Y. , Wang, H. & Lai, G. (2010). A Study of Human Flesh Search Engine: Crowd-Powered Expansion of Online Knowledge. IEEE Computer. 43(8). 45 - 53 (as cover feature).

18. Zhang, Q. , Zeng, D. , Wang, F.-Y. & Wang, T. (21 Jun 2012). Understanding Crowd-Powered Search Groups: A Social Network Perspective. PLoS ONE. 7(6). e39749 doi:10.1371/journal.pone.0039749

 

 

    本文转载自德先生公众号

  

6.gif



http://blog.sciencenet.cn/blog-2374-1103623.html

上一篇:[转载]佳作译介| 科学博客为谁而写?
下一篇:平行数据:从大数据到数据智能*

0

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备14006957 )

GMT+8, 2018-6-19 14:34

Powered by ScienceNet.cn

Copyright © 2007-2017 中国科学报社

返回顶部