||
ChatGPT过去一年多以来的大火,让各个领域不得不思考生成式AI (Generative AI)在本领所扮演的角色以及所造成的影响。作为学术出版界相当有影响力的组织之一, STM 也适时地于上月发布了《学术交流中的生成式AI: 学术出版中生成式AI的伦理与实操指南》(详见STM GENERATIVE AI PAPER - 2023 (stm-assoc.org))。 作为本领域中一份跨出版商的指南文件,还是非常值得仔细一读。 内容不多,正文只有10页,所以花一些时间做一下小结。
该指南参考了多家出版社的对于生成式AI 的使用要求,并非面面俱到加以详述,而是针对学术出版向个角色所面对现实当中,特别有针对性的实操问题在版权(copyright)、隐私(privacy)、保密(confidentiality)和伦理(ethics)方面的风险,并给出了建议或叫最佳实践原则 (best-p practice principles)。
1. 作者 (Authors)
Q: 生成式AI可否在准备稿件中使用?
A: 该政策会因出版商而有所不同,作者必须在投稿前咨询出版商的指南。
其他一些推荐的原则包括:
· 支持作者使用生成式AI改善、更正论文以及修改格式等
· 作者要披露生成式AI的使用
· 生成式AI不得应用于生成和修改数据与结论
· 生成式AI不能作为作者之一
2. 编辑团队(Editorial Teams)
Q: 编辑团队能否使用生成式AI进行诚信检查(Integrity Checks),例如侵犯版权、未经授权的重复使用、改写(paraphrasing)或抄袭?
A: 公开使用的生成式AI(如ChatGPT) 不可用于诚信检查;出版商定制的生成式AI要在可控的情况下合理使用。
Q: 编辑团队能否生成式ai的给出的结果?
A: 不可以,只能作为辅助的工具,需要人工加以监管。
3. 审稿 人(Reviewers)
Q: 审稿人可以用生成式AI审稿吗?
A: 首先,生成AI不可以出审稿意见;审稿过程当中,稿件(含附件)不可以上传到公开的生成是式AI,审稿人也不允许使用公开的生成式AI 服务编辑修改审稿意见。
(这部分看起来尤其严格,审稿人应该是不能用ChatGPT来帮助审稿)
4. 供应商或第三方服务提供商(Vendors/Third-Party Service Providers)
Q: 供应商可否用生成式AI辅助工作?
A: 不可将稿件(含附件)上传到公开的生成是式AI; 出版商要对供应商使用AI 负责,确保没有数据安全、侵权、泄密等等风险。
5. 读者(Readers)
Q: 读者可以将稿件上传到公开的生成是式AI平台吗?
A: 不可以。可能被平台利用,从而引起侵权、泄密等等。
Q: 当生成式AI工具用于准备稿件时,读者应有多大程度的知情?
A: 作者要在投稿时披露,而编辑团队要决定是否在出版的文章中让读者知情。
Q: 关于生成式AI的使用,出版商在教育作者、审稿人和读者当中所承担的角色?
A: 出版社要告知每一类角色使用生成式AI的政策。
个人评论: 这个指南总体上还是比较偏保守,或者更多的面向传统出版方式,并没有太多考虑当前盛行的预出版以及Open Access出版的环境下的不同情况。
(这一周: 2024-1-7)
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-11-23 10:40
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社