Pauldu的个人博客分享 http://blog.sciencenet.cn/u/Pauldu

博文

生成式AI在出版过程中如何使用(STM的伦理与实操指南 )

已有 999 次阅读 2024-1-7 20:33 |个人分类:学术生太圈|系统分类:观点评述

        ChatGPT过去一年多以来的大火,让各个领域不得不思考生成式AI (Generative AI)在本领所扮演的角色以及所造成的影响。作为学术出版界相当有影响力的组织之一, STM 也适时地于上月发布了《学术交流中的生成式AI: 学术出版中生成式AI的伦理与实操指南》(详见STM GENERATIVE AI PAPER - 2023 (stm-assoc.org)) 作为本领域中一份跨出版商的指南文件,还是非常值得仔细一读。 内容不多,正文只有10页,所以花一些时间做一下小结。

        该指南参考了多家出版社的对于生成式AI 的使用要求,并非面面俱到加以详述,而是针对学术出版向个角色所面对现实当中,特别有针对性的实操问题在版权(copyright)、隐私(privacy)、保密(confidentiality)和伦理(ethics)方面的风险,并给出了建议或叫最佳实践原则 (best-p practice principles)

1. 作者 Authors

Q: 生成式AI可否在准备稿件中使用?

A: 该政策会因出版商而有所不同,作者必须在投稿前咨询出版商的指南。

其他一些推荐的原则包括:

·       支持作者使用生成式AI改善、更正论文以及修改格式等

·       作者要披露生成式AI的使用

·       生成式AI不得应用于生成和修改数据与结论

·       生成式AI不能作为作者之一

2. 编辑团队(Editorial Teams

Q: 编辑团队能否使用生成式AI进行诚信检查(Integrity Checks),例如侵犯版权、未经授权的重复使用、改写(paraphrasing)或抄袭?

A: 公开使用的生成式AI(如ChatGPT) 不可用于诚信检查;出版商定制的生成式AI要在可控的情况下合理使用。

Q: 编辑团队能否生成式ai的给出的结果?

A: 不可以,只能作为辅助的工具,需要人工加以监管。

3. 审稿 人(Reviewers

Q: 审稿人可以用生成式AI审稿吗?

A: 首先,生成AI不可以出审稿意见;审稿过程当中,稿件(含附件)不可以上传到公开的生成是式AI,审稿人也不允许使用公开的生成式AI 服务编辑修改审稿意见。

(这部分看起来尤其严格,审稿人应该是不能用ChatGPT来帮助审稿)

 

4. 供应商或第三方服务提供商(Vendors/Third-Party Service Providers

Q: 供应商可否用生成式AI辅助工作?

A:  不可将稿件(含附件)上传到公开的生成是式AI;  出版商要对供应商使用AI 负责,确保没有数据安全、侵权、泄密等等风险。

5. 读者(Readers

Q: 读者可以将稿件上传到公开的生成是式AI平台吗?

A:  不可以。可能被平台利用,从而引起侵权、泄密等等。

Q: 当生成式AI工具用于准备稿件时,读者应有多大程度的知情?

A:  作者要在投稿时披露,而编辑团队要决定是否在出版的文章中让读者知情。

Q: 关于生成式AI的使用,出版商在教育作者、审稿人和读者当中所承担的角色?

A:  出版社要告知每一类角色使用生成式AI的政策。

 

个人评论: 这个指南总体上还是比较偏保守,或者更多的面向传统出版方式,并没有太多考虑当前盛行的预出版以及Open Access出版的环境下的不同情况。

                                                                                                                                         (这一周: 2024-1-7



https://blog.sciencenet.cn/blog-557555-1417010.html

上一篇:这一周: SWOT模型分析期刊发展策略2024-1-1
下一篇:2023年英文学术论文OA化一瞥: 全球与中国
收藏 IP: 123.120.139.*| 热度|

1 杨正瓴

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-4-28 01:59

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部