数字科学交流团队分享 http://blog.sciencenet.cn/u/dsc70 武大

博文

悬而未决:生成式人工智能与学术出版

已有 1734 次阅读 2024-1-15 19:46 |个人分类:STM出版|系统分类:海外观察

引用本文请注明出处

作者:Gwen Weerts

译者:梁斯婷

校译:檀湘琦

来源:https://spie.org/news/photonics-focus/janfeb-2024/hanging-in-the-balance#_=_

1454 年,古登堡的活字印刷机开始投入商业运营,出版行业由此诞生。技术变革随之而来的是一系列新的问题,并且这些问题在六个世纪后依然存在:如读写能力、抄袭、信息审查制度、虚假或未经审查信息的传播,以及当时最令掌权者担忧的问题:谁有权获得信息,可以获得什么类型的信息,以及哪类人应该被允许获得这些信息。

202211ChatGPT发布 3.0版本。尽管在此之前已经出现了聊天机器人的发明,但ChatGPT-3版本迭代引入了大量训练数据,能根据用户问答生成具有高度拟人效果的内容,具有惊人的创意生成能力,这是以前的版本不能做到的。过去一年里,大语言模型(Large Language ModelsLLMs)的发展十分迅速(我们已经进入了GPT-4时代),对社会各界影响深远,尤其在学术出版领域,引起了兴奋与焦虑并存的争论。上述问题在这一历史特定转折点上再次被提起,下文将详细探讨这些问题。

创造力/幻想

斯坦陵布什大学(Stellenbosch University)的教授Robin Emsley 20233月在《自然》(Nature)旗下子刊Schizophrenia中表示:“使ChatGPT需要用户自担风险,正如我不建议与患有幻想症的同事一起工作一样,我也不建议将 ChatGPT 作为学术论文写作的辅助工具。他指出,ChatGPT存在凭空捏造参考文献的倾向,它会虚构信息,同时以一种冷静、客观的口吻呈现虚假信息,以此骗取人们的信任感。这种虚假信息通常只有相关领域的专家才能检测出来。

程序开发者们已然了解了这种担忧,因此他们允许用户调整大多数聊天机器人回复的“创造性”程度,即从极具创造性到“只谈事实就好”。在这种保守回答的模式下,必应(Bing)的聊天机器人在保持其使用参考资料的真实程度方面做的不错,但它所提供的参考信息仍需要再次仔细核对。

但我们不应完全避免在大语言模型中设置 “创造力模式”。

经济学家、How to Learn and Teach Economics with Large Language Models, including GPT一文的作者Tyler Cowan写道:幻想与创造力密切相关。如果不是对尚不存在的事物产生幻觉,那什么又是新想法呢?

事实上,LLMs在生成新想法方面表现出色,这也是人工智能(Artificial IntelligenceAI)技术赋予研究人员的优势之一。波士顿大学生物医学工程学教授、国际光学工程学会(Society of Photo-Optical Instrumentation EngineersSPIE)旗下最新期刊Biophotonics Discovery的主编Darren Roblyer说,他利用LLMs来帮助发现新的研究问题。LLMs对于背景知识的了解非常有帮助”“你想了解其他研究同行做了什么,比如有没有人使用漫射光层或是OCT技术检测肾透析,(你都可以使用它)。他表示,LLMs可以帮助确定研究领域的差距,为研究人员提供新的探索机会。

构思/作者身份

LLMs擅长生成文本和图像。如2023 9 月发表在《自然》杂志上的一篇文章所示,在接受调查的 1600 名研究人员中,30% 以上的研究人员依赖LLMs生成代码。该文作者Richard Van NoordenJeffrey M. Perkel指出,28%的受访者借助LLMs撰写文章,32%的受访者表示这些工具帮助他们更快地完成撰写。鉴于在202311月之前很少有人关注LLMs,如今大这些工具的使用率令人吃惊。

该文章最后一项关于使用LLMs撰写文章的使用率统计结果引起了学术出版界的议论。虽然聊天机器人擅长构思,但它们无法对自己的产出负责,因此无法在科学研究中被归为作者。出版伦理委员会(Council on Publishing EthicsCOPE)明确了立场:作者对其稿件内容负全部责任,AI工具生成的部分也包括在内,作者要对任何违反出版伦理的行为负责。

但很少有学术出版商完全禁止使用生成式人工智能(Generative AI)。包括Springer NatureSPIE在内的大多数出版商虽然禁止认定聊天机器人为作者身份,但允许作者在创作中使用此类工具,同时作者必须在研究方法或致谢部分中说明此情况。

德国综合性媒体集团霍尔茨布林克出版集团(Holtzbrinck Publishing Group)战略与投资副总裁Jessica Miles在学术出版协会(Society for Scholarly Publishing SSP2023年年会闭幕全体会议上表示,这样的透明度将是AI在出版业应用的关键。她指出,自2000年以来,STM出版业投资了20亿欧元用于将学术记录数字化,让学术记录更易于检索,并通过开发识别剽窃和其他违背学术诚信的工具来保护学术记录的完整性。Miles表示:这些例子展示了集团是如何通过支持全行业标准来维持学术诚信和透明度的,以及发展技术和基础设施来应对数字化转型,为学术出版在适应AI的过程中持续演进和发展提供了蓝图。

同行评审/保密

每位期刊编辑都深有体会的是,学术出版业最大的痛点是找不到合格的、愿意审稿的同行评审审稿人。由于投稿量激增、研究日趋专业化、审稿人时间有限以及追求工作与生活平衡的理念正常态化,审稿人的数量远不够。那么,AI是否能在此发挥作用呢?

美国国立卫生研究院(US National Institutes of HealthNIH)给出了否定的答案。NIH 2023 6 月的一篇博文中强调,使用AI分析或点评 NIH 拨款申请是违反保密规定的,因为“AI工具发送、保存、查看或使用拨款申请、合同提案或点评的数据去向没有任何保证。在该博文中,NIH举例描述了将提案或手稿上传到LLMs并要求它撰写评审初稿的过程,该过程仅耗时2分钟,相比人工评审节约了数小时的时间。然而NIH描述的情况缺乏对AI工具使用方式的细微认知。例如,LLMs可以帮助审稿人在不透露稿件具体信息的情况下生成文献综述,它们还能帮助发现研究领域中被忽视的具有开创性的成果。Roblyer表示:找到正确的论文、还有谁在这个领域发表过类似的论文、当前的论文是否指向相关的出版物,这些工作现在对于审稿人来说可能真的很乏味。

如今,人们可以克服涉及文章保密的问题。范德比尔特大学(Vanderbilt University)电子与计算机工程系主任、SPIE旗下的Journal of Medical Imaging主编Bennett Landman指出,像范德比尔特大学这样的机构正在越来越多地授权私人使用的LLMs以保护隐私。他说:这是一个可以解决的问题

关于同行评审问题,Landman认为严格禁止LLMs的规定毫无意义,因为人们会想法设法规避这些规定。他表示:所有这些规定和那些你不能做的事都会产生作弊的可能性。我们为什么不正视这歌问题呢?我们应该允许有LLMs给出的审查意见,但不把这些意见当作是人类给出的,而是设置设置一位审查员来人工评估LLMs给出的意见是否正确。他指出,让ChatGPT初审稿件可以避免审稿人重复劳动,即审稿人不必关注语言、文章结构和表达的清晰度,编辑便有可能会在审稿人那里获得他们对稿件更深层次的知识。

新颖性/偏见

学术文章在发表之前都需要经过筛选和审查,因此期刊编辑需要在有限的时间内做出决定,评估文章与期刊的相关性以及文章的新颖性。倘若LLMs能够得到合理使用,那么它可以帮助管理大量涌现的学术研究文章。与传统的互联网搜索工具相比,聊天机器人能更清晰地比较/对比展示文章摘要,但需要注意的是,这些结论必须得到进一步的验证。

Roblyer说:“你可以把它看作是帮助提高期刊编辑工作成效的有用工具。但它是否会导致过去已有高被引论文的重复出现?是否会因为LLMs的训练样本是基于陈旧数据的,从而导致整个研究领域变得更加保守?

此外,逐渐深化的偏见也成为新的关注点:LLMs依赖书面文字之间的统计关系。根据Landman的说法,“ChatGPT在其定义上体现了社会的偏见。当LLMs在生成新的文本信息时,可能会传播不再准确,甚至完全有害的词语关系

2023 10 月,Omiye 等人在Digital Medicine杂志上发表了一项研究。研究显示,根据过时的、有不可靠可能性的医学信息训练出来的LLMs,可能会固化种族主义。例如,当被问及肺活量和肾功能时,LLMs会做出基于种族主义的错误的医学判断。这引发了人们对在医疗保健领域使用LLMs协助诊断或治疗的担忧。

造假/可获取性

论文造假,尤其是论文代工厂(paper mills)制造假研究论文,已成为学术出版领域日益严重的问题,Photonics Focus等杂志都对此进行了广泛的报道。以前的造假论文因为语法、结构和实质内容不佳,很容易被识别出来。然而,LLMs的出现使这些假论文更加难以被检测出来,因为它们擅长模仿论文写作的特定语气,生成完美语法的文章。

正如Landman所说:“ChatGPT 很擅长以一个值得信赖的朋友的姿态与我们对话,但实际上它在现实中没有对应的社会结构来让它意识到自己是我们的朋友。LLMs是一种没有道德指向的工具,它需要操作者来规范其道德准则。”

Miles认为:助长这些威胁的是人,而不是AI等技术。人们可以通过合作等方式,制定策略克服这些危机。

LLMs使那些因语言障碍而难以发表论文和晋升职称的人更容易成功。这些工具让研究人员能将精力集中在科学研究上,而不是语法完美的英文写作上。

Landman提出一个有趣的比喻:在计算器广泛使用之前,我的父母耗费大量时间学习算尺和乘法口诀,但现在一个简单的计算器就能做到。计算器的出现使乘法表口诀教育逐渐消失,变成了几何推理、表格、文字题,以及结构化问题。Landman接着说:“我们仍然在用 20 世纪 40 年代课本上的写作指导方法撰写文章。但如果有写作工具,就像计算器一样,能提醒你7 *13的结果,而你不需要去思考具体是如何生成的,那么我们是否就能更早地教导孩子们进行更高水平的推理?我们能否让人们基于语言的意义进行更深层次的论证和构建,而不仅仅困囿于语言本身?”这可能就是生成式AI的最大用途之一:它有可能为非英语国家的研究人员提供平等的发表机会。未来,科学家们可以完全跳过学习英语的步骤,用自己的语言进行研究和撰写论文,用自己的语言提交和发表论文,并依靠集成的LLMs为审稿人、编辑和读者的不同需求翻译成不同语言的论文。

由此我们可知生成式AI的问题:问责制、传播偏见的可能性以及可靠程度不稳定的准确性等。但生成式AI也可以帮助人类以不同的方式进行创造性思考,并简化繁琐的任务环节,最终可以为研究人员减轻负担。同时人类可以探索如何更有效地使用GPT模型,这将大有裨益。

在印刷机诞生的六个世纪后,我们可以自信地说:这项技术经受住了历史的考验。而对于生成式AI技术的出现,历史又将如何评说?AI究竟会促进还是阻碍学术出版业的发展,目前尚不确定。可以肯定的是,这场学术出版与AI间的对话才刚刚开始。



https://blog.sciencenet.cn/blog-521339-1418069.html

上一篇:了解中国对科研诚信和开放获取的看法
下一篇:《欧洲无障碍法案》:朝着规范性与更高目标迈进
收藏 IP: 111.181.141.*| 热度|

0

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-11-20 08:44

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部