||
学:我觉得,一个人如果已经形成了某种信念,是很难被改变的。情况往往是,您说得再有说服力,他也不会改变信念。
简:的确,这有生理和心理基础。人人都有各种偏误。心理学研究表明,对正反证据极不对称的态度和处理就是这么一种普遍存在而又难以克服的偏误。我总结,这有三方面。
一方面,人人都欢迎、关注、重视且不大思考就会接受有利于自己之所信(或所愿相信的东西)的信息作为正面证据,而难于接受相反的信息作为负面证据。心理学称这种不对称之举为motivated reasoning(可译为愿驱推理——带动机愿望、为之所驱的推理)。
达尔文自认“既无敏捷的理解力,又缺乏机智,抽象演绎思维的能力有限,记忆力虽广,但模糊不清”。他之所以能成就伟业,跟他以下方面的出类拔萃很有关:他十分注意记录与自己的观点不符的证据。这类证据很容易被我们忘掉。
假设一个人赞同某个观点。他最好能不带偏见地对待每一个相关证据,但是他不会,因为他难免偏颇。
一旦遇到有利信息,他只要能接受,就会接受——往往不加思索就会乐于轻信、接受它作为正面证据。而且还会点赞、转发、推荐、扩散它。
面对不利信息,他只要能拒斥,就会拒斥——吹毛求疵地挑剔它,质疑它不够真实可靠、准确全面性等等,努力给自己找种种理由来排除、否认、拒斥它作为负面证据,并压制它。心理学研究结果表明,结果是人们很容易忘记负面证据。
见下图。如果认为白带交汇处应该有淡黑点,那么下图就是证据,眼见为实;如果认为白带交汇处不该有淡黑点,那么下图也是证据,所见只是错觉。
白带交汇处有淡黑点吗?粗看远看有、细看近看无?
其次,面对含糊不明确可以做多种解释的信息,看似相关其实不相关的信息,人们总是一厢情愿地按有利于自己的观点和信念的方向来理解和解释,即所谓“仁者见仁,智者见智”【可加一句以期更为平衡:淫者见淫】。而且往往还觉得很有把握,甚至觉得非此不可。典型一例是:到景点观光遇到好天气,一位虔诚的基督徒说是因为上帝回应了他的祈祷,而在无神论者眼中,这十分可笑。这才有对同一事件、同一证据,也各执一词,争论不休。正像争论下图中的女子眼开还是眼闭一样。
眼开还是眼闭?
其次,面对含糊不明确可以做多种解释的信息,看似相关其实不相关的信息,人们总是一厢情愿地按有利于自己的观点和信念的方向来理解和解释,即所谓“仁者见仁,智者见智”【可加一句以期更为平衡:淫者见淫】。而且往往还觉得很有把握,甚至觉得非此不可。典型一例是:到景点观光遇到好天气,一位虔诚的基督徒说是因为上帝回应了他的祈祷,而在无神论者眼中,这十分可笑。这才有对同一事件、同一证据,也各执一词,争论不休。正像争论下图中的女子眼开还是眼闭一样。
这方面的另一大体现是各取所需,以偏概全。在《红楼梦》中,“经学家看见《易》,道学家看见淫,才子看见缠绵,革命家看见排满,流言家看见宫闱秘事……”(鲁迅)。其他如歌德《浮士德》等不少恢宏名著亦然。
更有甚者。即便反面的铁证如山,仍有可能完全合乎逻辑地自圆其说、强化自己的观点和信念。下面举例说明。自洽指系统内部无自相矛盾。哥德尔第二不完备性定理说,自洽系统无法自证自洽。考虑任一自洽系统S。
若你认为S不自洽(记为ā),因S无法自证自洽,即在S中不能判定ā成立与否,故在此意义上S与ā无关(无可证明之矛盾)。按自洽的定义,扩充系统S+ā自洽,却无法自我证伪其实错误的ā,但可证明S不自洽(因为ā在S+ā内成立),按逻辑,只能得出大错特错的结论:S不自洽!
反之,若我认为S自洽(记为A),与上同理,则系统S+A自洽,无法自证自洽,尽管它能证明S自洽,其逻辑结论只能是S自洽。
这样,面对同一系统S,由对立的两观点出发,各自所得的逻辑结论都自我强化,彼此的对立加剧!
相信S自洽者会选A,不信者会选ā,面对处处表现自洽(虽无法自证自洽)的系统S,两个对立观点都能与之结合而保持自洽,且都能自圆其说,自我强化。面对S是自洽(但无法自证)的这一铁定事实,彼此矛盾的观点各自还都能自圆其说、自我强化,而这在逻辑上居然无懈可击、完全成立,是唯一的必然结果!可见观点信念多么重要,有些反面证据不仅难以撼动,而且还反而增强它们!
综合上述,即通常所说“戴着有色眼镜来看”的这两方面,不论所遇信息与自己观点的关系如何,效应都是严重的偏欹、不对称,偏向于形成自我强化的正反馈递归环。每循环一次,就加强一些,以致牢不可破。难怪人们难以改变自己的已有观点。
第三方面十有八九更重要。只要欲望足够强烈,由于主观能动性,人们会趋喜避厌——主动出击,积极寻找支持自己观点和信念的有利信息作为正面证据,同时有意忽视、规避、排斥、压制可作为负面证据的不利信息。大千世界,无奇不有,存心要找,能不如愿?正如在下图这(看似)杂乱无章的泼墨中发现一张络腮胡男人脸一样。
存心则能看出这泼墨中有张络腮胡男人脸(转着看)
结果是,他会得到大量重要的有利证据,而所知的不利证据会显得相对稀少且无足轻重。就这样,其观点和信念得到大大强化,发现不少“同气相求,情投意合”之人,更觉“吾道不孤”,更自以为是。所以“物以类聚,人以群分”。这在互联网上有专名“回音室”(echo chamber)。
这便是我所总结的人人都难以摆脱的可称为证据偏欹的三个方面。人人如此,“爱同憎异,贵乎合己,贱于殊途”(东晋葛洪《抱朴子·辞义》),乃至党同伐异,只不过各人程度有所不同。古今中外皆然,今日尤盛,往后会更甚于今。
教:的确这样。您说得再简单明了不过了。
简:互联网和手机等信息技术带来的便利更强化了这种证据偏欹。正是由于正反证据这种极不对称的作用,接触越来越多相关信息(更别说积极趋喜避厌或被投其所好地推送)之后,一个人的初步或原有的观点和信念会被不断强化,变成坚信,而非弱化,更非不同观点之间的取长补短、调和或趋同。
我认为,这是宗教信仰特别是虔诚信徒的信仰极难改变的主要原因,除非人生发生重大变故逼迫人幡然梦醒、深度反思(如名著《牛虻》中主人公亚瑟的情况)。【英国女作家伏尼契此书的名声在西方远不如在中国大。】
随着信息技术的迅猛发展,在当前这个时代,生活离不开手机有如鸦片,互联网铺天盖地笼罩一切,自媒体大行其道“劣币驱逐良币”,人工智能造假技术日新月异,各种雅俗真假信息大爆炸,人们面临的信息量呈指数增长。这种证据偏欹所导致的强化作用,加速放大彰显了人们观念上的不同。于是,对立的观点日渐增多,冲突的程度日趋严重,人之信念和观点的极端化日甚一日,越来越多的人日益自以为是。政治观点更是如此,社会因此变得更加极化。它已经带来了、还将带来更大量且更严重的不和、对立、矛盾乃至冲突和战争等人间悲剧惨剧。
这可以说是以互联网、手机为代表的信息技术招致的一大负面效应,人们始料未及。不过,人工智能在这方面的负面作用会后来居上。
教:您作为信息科技相关领域一位领军专家学者却说了这么些它们的坏话,挺出乎我的意料。
简:信息科技带来的好处极大,有目共睹,无需我多费口舌。我这里只是说它们会大幅度强化愿驱推理和证据偏欹,这当然是一个负面效应。我并没开足马力,炮轰信息科技,大说特说它们的其他各种负面效应。
学:老师自己是怎么克服这个愿驱推理和证据偏欹的?有什么好办法呢?
简:我又怎能幸免啊?我哪有什么灵丹妙药?尽管我清晰认识到上述偏误很多年了,但也没想出什么好办法。这谈何容易,否则古今中外的先辈哲人智者必定会留下如何克服这类偏误的宝贵遗产,而我对此可谓毫无所知。
不过,十分清楚并时时提醒自己这种偏误的存在,大大有利于减轻自己的这种偏误,因为人有主观能动性,能借用圈环的力量跳出圈环。关键在于养成妥善应对之道的健康习惯,这也说易做难。比如:在采集信息时尽量避免偏欹,正反信息一视同仁,都收集存储;千万别信孤证(没有旁证孤零零的证据);在对真伪、正误、是非、好坏做出判断以前,对自己未加审查的本能偏好,有意识地加以平衡;在充分掌握足量的正反信息、深思熟虑之前,尽量不做出判断,不急于形成自己的观点,更不急于找同盟军。
还有,面对一个复杂问题,所知不多、认识有限之人,很容易被最先接触到的有理而片面的一面之词误导,甚至形成心理学所说的“锚定”,于是从此难以摆脱偏见。所以最好是,先悬置判断,采集尽量全面而可靠的信息,听取各方面的声音,再综合起来,加上自己的独立思考,最终形成自己的判断。
在我看来,不少人往往过度急于做决断,做出之后又轻易改变,还自鸣得意,美其名曰“很灵活、会适时调整”。我一般坚持先尽量采集信息,觉得足够或时间不允许再拖时,才认真思考,做出决断,而一旦做出,我一般不愿只因有新信息便再做决断,除非新的信息又有足够推翻先前决断的质和量。
学:自媒体虽然有它的好处,但是问题确实也很多很大。
简:自媒体靠吸引眼球乃至引起轰动来追求流量,且缺乏监管,不重信誉,它因诸如此类本质因素而有三大难以避免的严重弊端:①信息来源很不可靠,不少是扑风捉影甚至无中生有;②肆意夸张夸大,一心只想哗众取宠;③极其片面偏激,根本不求平衡,常常是攻其一点,不及其余。时时提醒自己它的这些毛病,就不容易被它误导。
不过我觉得,人工智能带来的问题会更大得多。
比如商家会利用人工智能投你所好,推送受你欢迎因而会强化你之观点的信息,从中牟利,最后让你淹没(淹溺)于这种片面信息的汪洋大海之中。
再如,ChatGPT一类人工智能产品因其商业本质,都想得到更多的用户,因而大都不会当诤友直言相劝,更不会给出多少逆耳忠言;相反,它更会看人说话,顺着你说,从而强化你的偏见,使社会更加极化。当然,这是对绝大多数人而言。人工智能的应答十分依赖于输入的措词提法。如果你比较平衡,想要尽量克服上述偏误,听取不利于自己观点的反面意见,只要掌握合适的输入措词提法,人工智能就能更进一步帮你。
可见,和信息技术相比,人工智能所具有的放大和强化作用更大得多,会使偏者更偏,全者更全。而人们大都明显是偏者,只有出类拔萃者才是凤毛麟角的例外,因此这些技术在这方面的效应,弊远大于利。
人工智能的深度造假和幻觉,因其难以辨别,招致的问题恐怕会迅速变得更尖锐得多。面对这样的情况,我们更不应过于轻信,更不该轻易判定,更不可急于决策,更不能草率行动。
教:平时浏览小红书、微信等平台发布的帖子时,平台就会推测浏览者的喜好或观点,然后推荐类似的内容,导致后面再也看不到不一样的观点或者新鲜的内容了。
教:我切身感受到“愿驱推理”与“证据偏误”在人工智能时代已被放大到前所未有的地步。简而言之,从“人们只会相信自己愿意相信的”放大为“人们只能接触到自己愿意相信的”。
一个让我后背发凉的日常经历是:白天与朋友随口称赞某件商品,晚上它便精准占据了我的各大购物App首页。我甚至不知它是通过何种途径“听见”的。
这已远非隐私泄露,而是一场深刻的“认知塑造”。其运行逻辑是:我们的言行、甚至无意识的停留,都被实时捕获,用以推断我们的偏好,继而为我们构建一个充满“正面证据”的信息茧房。这形成了一个强大的自证闭环:系统不断喂养我们偏好的内容,使我们更坚信原有观点,而这又催生更多同类信息。最终,在“千人千面”的个性化伪装下,我们被悄然剥夺了接触真实、复杂、多元世界的机会。这不是便利,这是一种高级的“认知圈养”。
简:说得好!我真不知道你们所经历的已经这么严重了。幸运的是,我历来十分注意保护自己的隐私,所以还没有深受其害。
人工智能像其他科技的发展一样,资本的贪婪是其一大驱动力,也是其负面作用大力祸害人类的罪魁祸首。要不是商业牟利作祟,照理我们至少应当有权选择是否要某种推送。
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2026-3-2 15:59
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社