|
人工智能(AI)技术正迅速渗透科研与医疗体系,在数据处理、文献分析、实验优化以及学术写作方面展现出前所未有的效率。与此同时,AI的快速普及也引发了关于偏倚、科研诚信、人类判断角色弱化等深刻讨论。
主要内容
近日,蔡佩娥教授团队发表在BIO Integration的文章《Clinicians and Scientists: Turn to AI, Not into AI》系统分析了AI在科研中的利与弊,提出了人类与AI协作的伦理和实践原则,强调科研人员应借助AI提升能力,而非被其取代或依赖。

一、AI正在重塑科研生态:高效、精准、可扩展的研究伙伴
AI已经成为跨学科研究的重要工具,被广泛用于基因组学、药物筛选、医疗诊断、气候模型分析以及社会科学行为预测等领域。它能够处理海量数据、自动化繁琐流程,并快速总结文献内容,显著加快科研迭代速度。
文章指出,AI带来的主要收益包括:提高效率、增强准确性、降低成本并推动创新研究方法的出现(如高维数据建模、生成式材料设计等)。
二、风险同样存在:偏倚、误用、透明度缺失与伦理风险
文章同时强调,AI的快速发展也引发了科学界的高度关注,尤其包括以下风险:
自动化偏倚(automation bias),导致研究者过度依赖模型输出
训练数据偏倚可能导致错误推断
AI缺乏原创性、创造性与概念突破能力
隐私保护和数据安全问题
生成文本可能包含造假、伪造引用、内容不准确等隐患

表1|科研中使用AI的优势与风险对照。
三、如何正确使用AI?——协作,而非替代
文章指出,AI在科研中的最佳定位是“助手”而非“主体”。为避免误用,科研人员需遵循以下原则:
训练与输入必须确保数据质量
所有AI参与的过程应在方法部分透明披露
研究者仍需承担批判性判断,避免无审查采信AI输出
机构应为科研人员提供AI伦理培训
建议设立 AI 使用的伦理与监督委员会
作者提出,“人类智能 + AI工具”才是最可持续的科研模式。
四、人类独有的能力:创造力、伦理判断与跨学科洞察
尽管AI在分析与推断方面强大,但其仍缺乏:
伦理判断
创新性假设生成能力
情感理解与同理心
对复杂社会文化情境的把握
真正的跨学科整合理解能力
文章引用多个案例指出,当科研依赖AI生成结果时,研究质量与科学严谨性往往受到威胁。
五、AI滥用案例:大学校园与学术出版的警示
文章讨论了多个国际案例,包括:
英国高校中学生大量使用AI导致学术诚信风险
全球范围内出现AI生成论文、虚假引用、未披露AI使用等问题
出版机构开始强制要求披露AI使用,并建立检测机制
这些案例提醒科研界必须保持警觉,同时推动统一且透明的政策制定。

图1|AI生成的科学图与人工绘制图的鲜明对比。
(A) 由ChatGPT5.1自动生成的示意图;(B) 根特大学Andy Vierstraete提供的正确人工绘图。
这一对比揭示了 AI 在缺乏概念理解与专业判断的情况下,难以准确表达科学含义。尽管AI在数据分析与文献总结方面表现突出,复杂科研图示的绘制仍离不开人工校核与专业绘制。
文章强调,最佳实践是采用 “AI初稿+人类专家审核” 的混合策略:
AI负责快速绘制草图,人类则负责校正、完善和最终把关。未来在更多训练数据和human-in-the-loop框架的支持下,AI有望提高精度,但目前阶段仍必须依赖专家监督。
六、未来展望:透明、安全、可解释的AI科研生态
文章最后强调,推进AI在科研中的健康发展,需要从技术、制度到文化层面共同努力:
提升模型可解释性,特别是在医疗等高风险场景
加强数据隐私与安全保护
建立清晰统一的AI使用准则
在保证研究诚信的前提下,充分发挥AI加速科研的价值
文章结论指出:未来科研的成功依赖于人类创造力与AI能力的平衡。AI应成为工具,而不是替代人类思考的主体。
结语
AI无疑正在推动科研模式的革新,但其应用必须建立在人类监督、批判性思维与伦理判断之上。研究者“应当使用AI,而不是变成AI”,才能确保科技发展服务于科学本质,守护研究诚信。
https://www.scienceopen.com/hosted-document?doi=10.15212/bioi-2025-0188
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2025-12-20 01:24
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社