||
早在去年,就有人担忧科学家利用ChatGPT写论文的问题:
ChatGPT is fun, but not an author
https://www.science.org/doi/10.1126/science.adg7879
Scientists used ChatGPT to generate an entire paper from scratch — but is it any good?
https://www.nature.com/articles/d41586-023-02218-z
去年报道了区别人类亲自和用ChatGPT进行学术写作的检测工具:
Distinguishing academic science writing from humans or ChatGPT with over 99% accuracy using off-the-shelf machine learning tools
https://www.sciencedirect.com/science/article/pii/S266638642300200X
今年8月(14 August 2024)在自然网站上有一篇文章论述ChatGPT到底能帮科学家做什么事:
Chatbots in science: What can ChatGPT do for you?
https://www.nature.com/articles/d41586-024-02630-z
作者米尔顿·皮维多里(Milton Pividori) 花了一年半的时间研究如何在科学研究中使用聊天机器人(chatbot)才能物尽其用。他强调指出三个关键教训。
第一个是设计好提示语。比如要明确你希望模型做什么(使用“总结(Summarize)”或“解释(Explain)”等命令)。如让模型采用一个角色或身份(“你是一名专业的文案编辑(You are a professional copy editor)”)等。
第二个是分配合适的任务。需要考虑任务需要多少创造性思维,涉及太多创造力的问题不适合使用聊天机器人(chatbot)来完成,因为模型也会引导人出错。以科学研究中最开始的阶段——确定研究问题——就涉及到创造性思维,因为需要仔细阅读论文,找出研究空白,提出假设,并开始思考如何通过实验来解决这个问题。你可能想尽可能多地了解每篇论文,包括它的数字、表格和补充材料。但聊天机器人(chatbot)可能会省略关键信息,重要的是,可能会阻止你建立创造性和逻辑性的联系,因此聊天机器人(chatbot)可能并不适合。但在文献综述最后阶段,你可能想快速“阅读”(即总结)与你的工作不太直接相关的文章。在这种情况下,使用聊天机器人(chatbot)的风险就比较小。
第三个是多写少读。据作者的经验,使用聊天机器人(chatbot)写作文章(和修改文本)比使用它阅读文献风险更小。要让大型语言模型 (Large Language Model,LLM)“阅读”一篇论文,你不得不相信它能准确地提取最重要的观点,因为你可能不会亲自阅读这篇文章。但是,当使用它进行写作时,就可以完全控制输出,并在出现“幻觉”(无意义或不准确的文本)时识别出来。
最后,作者指出:if you don’t know how to do something, I strongly discourage you from using a chatbot to do it for you.(如果你不知道如何做某事,我强烈建议你不要使用聊天机器人来帮你做。)——有朋友担心ChatGPT可能替代SCI写作老师。我觉得这种担心是多余的,毕竟SCI写作老师任务是教会学生怎么写作SCI,学生如果不知道SCI写作方法,那么他肯定也用不好ChatGPT。
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-11-24 21:16
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社