美捷登官方博客分享 http://blog.sciencenet.cn/u/medjaden

博文

AI生成的伪造论文正在颠覆科学:我们还能相信研究成果吗? 精选

已有 3919 次阅读 2024-12-3 10:42 |系统分类:论文交流

人工智能(AI)的兴起为许多领域带来了前所未有的机遇,包括科学研究。然而,与这些优势相伴的,是威胁科学交流完整性和科学公信力的新风险。最近,Haider等人发表的题为《GPT-fabricated scientific papers on Google Scholar: Key features, spread, and implications for preempting evidence manipulation》的论文中(1),揭示了AI技术带来的最令人担忧的后果之一:由大型语言模型(LLM),特别是ChatGPT,生成的伪造科学论文的泛滥。这一现象不仅破坏学术环境,还可能扭曲社会的证据基础,进而影响政策制定、公共话语以及科学本身的信誉。作者,美捷登Daniel,转载请联系授权并显著表明来源美捷登

$J)$QNXEDUDW)]PPSRSMX3A.png

1. Haider等人发表的题为《GPT-fabricated scientific papers on Google Scholar: Key features, spread, and implications for preempting evidence manipulation》的论文(截图来自https://misinforeview.hks.harvard.edu/article/gpt-fabricated-scientific-papers-on-google-scholar-key-features-spread-and-implications-for-preempting-evidence-manipulation/

 

一、GPT伪造论文的泛滥

文章指出,大量GPT伪造的论文正在进入公开的学术数据库,并且几乎没有经过同行评审。作者共发现了139篇此类论文(1),这些论文都可以通过谷歌学术轻松获取,其中大部分发表在非索引期刊中。这些论文的传播凸显了两个相互关联的挑战:生成式AI工具的日益普及,使其能够逼真地模仿科学写作;谷歌学术这类的学术平台存在结构性弱点,使得这些虚假论文容易与真实研究一起被列出。

1. 使用 ChatGPT 欺诈性或未声明地在不同主题和场所发表的论文数量(表格来源https://misinforeview.hks.harvard.edu/article/gpt-fabricated-scientific-papers-on-google-scholar-key-features-spread-and-implications-for-preempting-evidence-manipulation/

论文类别

计算机

环境

健康

其他

总计

被索引的期刊*

5

3

4

7

19

非索引期刊

18

18

13

40

89

学生论文

4

3

1

11

19

工作论文

5

3

2

2

12

总计

32

27

20

60

139

* Scopus、挪威科学期刊、系列和出版商登记册、Web of Science / DOAJ 索引。

 

作者将这些论文分为四个主要学科领域:计算机、环境、健康及其他领域(1)。值得注意的是,这些领域的研究直接影响公共政策和社会问题。其中,健康和环境研究领域尤为容易受到操纵,因为公众意见和决策往往依赖于科学证据。例如,在气候变化或像COVID-19这样的公共卫生危机背景下,利用GPT伪造的研究进行的虚假信息传播可能对社会造成严重影响。

 home.png

二、GPT伪造论文构成的威胁

作者提出了一个紧迫的问题,即所谓的“证据操纵”。与传统的科学欺诈不同,GPT生成的论文是一个完全不同的欺骗类别。这些论文看似结构严谨,但实际上并未包含任何真实的研究。尽管在研究中发现的某些GPT伪造论文由于语言公式化或引用不规范而易于识别,但许多论文展示出结构化的内容,并通过了审查。

文章讨论的一个关键问题是,这类论文的传播可能导致科学信任的危机。众所周知,科学建立在同行评审和严格验证的基础上,但正如Haider等人所指出的,即使是索引期刊——学术出版的黄金标准,也未能幸免于此类入侵。研究发现,有19篇伪造论文被发表在索引期刊中。这些虚假论文进入知名的学术期刊数据库,极大地增加了错误信息被当作有效科学的风险。

这个挑战因人们越来越依赖AI驱动的搜索算法(如谷歌学术使用的算法)而变得更加复杂。这些算法优先考虑数量和可访问性,而不是质量,这意味着GPT伪造的论文可能与经过同行评审的工作并列显示,且很难区分。鉴于许多普通读者、记者、政策制定者甚至一些学者可能不会详细审查每篇论文,误导性或完全错误的信息获得认可的风险很高。

 

三、科学公众信任的危机

这一趋势最深远的影响之一是科学公信力可能进一步被削弱。近年来,科学在许多有争议的辩论中被政治化——无论是关于气候变化、疫苗,还是公共卫生政策的影响。作者认为,GPT生成的论文很可能在这些信息战中被“武器化”,虚假信息被用来削弱公众共识,或导致对已确立科学事实的怀疑。

作者指出,问题不仅在于这些虚假论文的存在,还在于它们长期存在所带来的影响。即使被撤回,这类论文仍可能在各种数字库、影子图书馆或社交媒体中继续传播。事实上,正如在COVID-19疫情期间所见,撤回有时会加剧阴谋论,事与愿违。如果那些已经倾向于不信任科学机构的人遇到支持其观点的GPT伪造论文,这会进一步巩固他们的信念,并使得在重要问题上建立共识变得更加困难。

根据表2所示,由GPT生成的有问题论文正逐渐渗透到在线学术交流研究的大部分平台中。已发现这些论文出现在的平台包括ResearchGateORCiD、《人口治疗学与临床药理学杂志》(JPTCP)、EasychairFrontiers、电气电子工程师学会(IEEE)以及X/Twitter。因此,即使它们从原始来源被撤回,也很难在其他平台上进行追踪、删除或标记。此外,除非进行监管,否则谷歌学术将使这些论文持续曝光,并且很可能不会被标注为问题论文。

 

2.GPT生成的有问题论文正渗透至多种学术平台(表格来源https://misinforeview.hks.harvard.edu/article/gpt-fabricated-scientific-papers-on-google-scholar-key-features-spread-and-implications-for-preempting-evidence-manipulation/

主题

1

2

3

4

5

环境

researchgate.net   (13)

orcid.org (4)

easychair.org (3)

ijope.com* (3)

publikasiindonesia.id   (3)

健康

researchgate.net   (15)

ieee.org (4)

twitter.com (3)

jptcp.com** (2)

frontiersin.org (2)

注释:《国际开放出版与探索期刊》(ISSN: 3006-2853

** 《人口治疗学与临床药理学杂志》(ISSN 2561-8741

 

四、潜在的解决方案

Haider等人强调了需要采取多方面的措施来应对这一日益严重的威胁。他们建议,任何解决方案都必须整合技术、教育和监管策略,以达到预期效果。

1.技术

首先,作者建议实施更先进的检测工具。谷歌学术等学术平台需要开发更好的过滤机制,以区分经过同行评审的索引期刊和灰色文献。此外,他们建议将针对索引期刊的评估工具直接整合到搜索引擎中,使用户能够更轻松地评估所遇到论文的可信度。在理想的情况下,算法可以根据语言模式、元数据不一致或引用异常标记GPT生成的内容,但要实现这一水平的复杂性,仍需大量的技术创新。

2.教育

其次,教育在减轻AI生成内容风险方面发挥着关键作用。研究人员、学生和公众需要了解过度依赖AI生成信息的局限性和潜在危险。虽然AI工具可以在自动化某些任务方面非常有价值,但批判性思维和来源评估的重要性不容忽视。作者:美捷登Daniel,转载请联系授权并显著表明来源美捷登。培养下一代研究人员能够辨别高质量作品和欺骗性论文,将是保持科学交流完整性的关键

3.监管和伦理框架

最后,文章呼吁采取监管干预措施。从期刊出版商到搜索引擎,整个科研基础设施需要为确保其传播的材料符合严格标准承担责任。可能需要出台行业范围的法规,明确AI在科学出版中的使用伦理准则。此外,应该为期刊和学术搜索平台提供更强的激励措施,以实施更严格的审查程序,确保其数据库中研究的质量。

 640 (7).png

五、AI时代科学未来的反思

GPT伪造论文的兴起是生成式AI带来的广泛社会挑战的一部分。尽管AI具有推动人类知识进步和自动化复杂过程的巨大潜力,但其滥用可能带来同样广泛的负面后果。在科学研究的情况下,利害关系尤其重大。科学支撑着许多塑造我们世界的决策——从环境政策到公共卫生,再到技术创新。

在一个错误信息可以迅速在数字平台上传播的时代,科学记录的完整性比以往任何时候都更加重要。Haider及其同事通过识别GPT伪造论文的风险并提出潜在解决方案,为学术界作出了巨大贡献。但他们的研究也应当唤起公众的警醒。作为公民,我们依赖科学为我们提供关于生活世界的准确、可靠的信息。如果这种信任被削弱,后果将是严重的——不仅对学术界,对整个社会都是如此。

展望未来,必须齐心协力维护科学研究的可信度。这不仅需要技术上的改进,还需要重新评估我们在数字时代与信息的互动方式。我们必须认识到,虽然AI是一个强大的工具,但它也可能被用来制造怀疑和混乱。科学诚信的未来,甚至一个信息爆炸的社会的未来,取决于我们如何应对这一新兴挑战。

总之,Haider等人的研究揭示了一个迫在眉睫且复杂的问题,亟需立即引起关注。他们的分析呼吁研究人员、机构、政策制定者和公众共同认识到AI驱动的证据操纵的风险,并采取切实行动,保护科学交流的完整性。事实与虚构不分的学术世界,是我们绝对不能允许的。

作者,美捷登Daniel,转载请联系授权并显著表明来源美捷登。

参考资料:

 

1.       https://misinforeview.hks.harvard.edu/wp-content/uploads/2024/09/haider_gpt_fabricated_scientific_papers_20240903.pdf

2.       https://mp.weixin.qq.com/s/vCFJtxhNxMhKN-3-PCdImA

3.       https://mp.weixin.qq.com/s/rZYp2rdtnfkD3nehKRAgVQ

往期导读:

第四届ISMRP精彩回顾:

第三届ISMRP精彩回顾

第二届ISMRP精彩回顾

 第一届ISMRP精彩回顾



https://blog.sciencenet.cn/blog-475824-1462612.html

上一篇:浅谈医学期刊中的Letter写作
收藏 IP: 119.98.70.*| 热度|

2 王涛 刘跃

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-12-15 11:45

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部