|
人类大脑能否抵御AI导致的同质化
人工智能或让人类表达“同质化”——部分大脑能否抵御这种影响?
新证据表明,大语言模型的输出内容会塑造人类用户的文字表达与思维方式。
配图:浅黄色背景上布满红色玩具机器人,呈重复对角线排列,上方覆盖半透明橙色块状图案
部分科学家警示:使用人工智能工具正让人类表达趋于同质化。
当下人工智能模型的核心,是海量训练数据——由真实人类创作的文本、视频与图像,用于教会模型识别规律、生成内容。人类无疑在训练人工智能系统,但人工智能是否也在反过来“训练”我们?
越来越多论文指出,人们会不自觉地模仿所使用的大语言模型(LLM)的写作风格、推理方式,甚至观点。部分研究者表示,这种影响可能导致人类文字表达千篇一律,且即便非直接使用人工智能的人,其文字创作也可能受波及。
“如果你身边的人都在使用这些大语言模型,并采纳其写作风格、观点与推理逻辑,久而久之这种表达会包围你,让你觉得这才是更符合社会主流的信息表述方式。”美国洛杉矶南加州大学计算机科学家齐瓦尔·苏拉提说道。他与合作者近日在《认知科学趋势》发表评论文章1,提出大语言模型正在让人类话语趋于同质化。
但也有观点认为,人类大脑或许仍能抵御人工智能带来的“扁平化”影响。去年11月发布在arXiv预印本平台的一项研究2显示,部分写作者保留了独特的个人文风特征,他们可能更看重表达的真实性,而非人工智能带来的效率提升。该研究尚未经过同行评审。
深入探究
苏拉提及其团队在去年发布于arXiv的另一篇预印本研究3中(未同行评审),分析了2022年ChatGPT问世前后的 Reddit 帖子、新闻内容与预印本论文。团队发现,ChatGPT发布后的文本,在风格多样性上明显弱于此前的文本。
在最新的评论文章中,作者认为这种同质化现象同样影响着人们的观点与逻辑判断。他们引用2023年arXiv上一篇未评审预印本研究4:参与者接触对社交媒体持正面或负面态度的大语言模型后,自身观点也会向模型立场偏移。
英国埃克塞特大学研究经济学与人工智能的奥利弗·豪泽表示,作者的观点客观中肯——人工智能确实能让人受益,“帮你写得更好、更易被他人理解”,“但一旦这种使用普及开来,受损最严重的是整体群体”。
政治立场层面
今日发表于《科学进展》的一项研究5发现,人们在社会议题上的观点,会逐渐与从人工智能工具中习得的立场趋同。参与者借助人工智能辅助撰写关于死刑等社会政治话题的内容后,其表达的态度,比未使用人工智能的对照组更贴近大语言模型的观点。论文合著者、纽约州伊萨卡市康奈尔大学信息科学家斯特林·威廉姆斯-塞西称,这种效应最终可能降低政治观点的多样性,具体影响则取决于不同大语言模型的立场倾向。
关键在于,研究参与者并未意识到自己受到了聊天机器人的影响。即便告知参与者人工智能可能使其观点产生偏向,结果也未发生改变。威廉姆斯-塞西表示,目前“我们尚不清楚如何防范这种影响”,简单的用户提醒恐怕无法解决问题。
豪泽认为,人工智能带来的同质化还会窄化科学思维:“我们可能会错失那些看似离谱、却能带来突破性进展的奇思妙想。”今年1月《自然》刊发的一篇论文6显示,使用人工智能工具开展研究的科学家,其研究领域范围比不使用人工智能的学者更狭窄。
个人风格
并非所有研究都表明使用人工智能会导致同质化。去年11月的预印本研究2发现,人类写作者在与人工智能互动时会产生不同变化:有人的文风确实更贴近模型,也有人坚守个人风格,甚至变得与人工智能文风差异更明显。
美国得克萨斯州休斯顿市中心大学研究人机协作的万云(音译),对“人工智能正在消解人类文字多样性”的担忧提出质疑。“我们认为事实或许并非如此。”他说。
万云及其团队构建了10个拥有不同文化背景、思维方式的独特人工智能角色,让参与者依据角色生成的情节创作创意故事。去年发布在arXiv的未评审分析结果7显示,这些故事的多样性,与无人工智能辅助的人类原创故事相当。万云表示,这类多元化的定制角色,是减少同质化的途径之一。
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2026-3-16 01:05
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社