|
OpenAI本周推出了GPT-4,这是为其流行的聊天机器人ChatGPT提供动力的大型语言模型的最新版本。该公司表示,GPT-4包含重大改进,它已经以其创建类似人类的文本并从几乎任何提示生成图像和计算机代码的能力而震惊了人们。研究人员表示,这些能力有可能改变科学,但有些人感到沮丧的是,他们还无法访问这项技术、其底层代码或有关其训练方式的信息。科学家说,这引起了人们对该技术安全性的担忧,并使其对研究的用处降低。
GPT-4 is here: what scientists think (nature.com)
3 月 14 日发布的 GPT-4的一个升级是它现在可以处理图像和文本。为了证明其语言能力,Open AI表示,它通过了美国律师法律考试,成绩为第90百分位,而上一版ChatGPT的成绩为第10百分位数。但这项技术尚未被广泛使用——到目前为止,只有ChatGPT的付费用户才能访问。
“目前有一个等待名单,所以你现在不能使用它,”阿姆斯特丹大学的心理学家Evi-Anne van Dis说。但她看过 GPT-4 的演示。“我们看了一些视频,其中他们展示了能力,这令人兴奋,”她说。她回忆说,一个例子是一个网站的手绘涂鸦,GPT-4用它来生成构建该网站所需的计算机代码,以演示将图像作为输入处理的能力。
但是,科学界对OpenAI对模型如何训练和训练哪些数据以及它的实际工作方式的保密感到沮丧。“所有这些闭源模型,它们本质上都是科学的死胡同,”开源人工智能社区HuggingFace专门研究气候的研究科学家Sasha Luccioni说。“他们(OpenAI)可以继续建立在他们的研究基础上,但对于整个社区来说,这是一个死胡同。
罗切斯特大学的化学工程师安德鲁·怀特(Andrew White)以“红队”的身份有特权访问GPT-4:OpenAI付钱测试平台以尝试使其做坏事的人。他说,在过去的六个月里,他可以使用 GPT-4。“在这个过程的早期,它似乎没有什么不同,”与以前的迭代相比。
关于 GPT-4 如何训练的谜团也是范迪斯在阿姆斯特丹的同事、心理学家克劳迪·博克廷(Claudi Bockting)关注的问题。“作为一个人,很难对你无法监督的事情负责,”她说。“其中一个担忧是,他们可能比人类本身的偏见要多得多。Luccioni解释说,如果无法访问GPT-4背后的代码,就不可能看到偏见可能来自哪里,或者纠正它。
道德讨论
Bockting和van Dis还担心,这些人工智能系统越来越多地被大型科技公司拥有。他们希望确保这项技术得到科学家的适当测试和验证。“这也是一个机会,因为与大型科技公司的合作当然可以加快流程,”她补充道。
Van Dis,Bockting及其同事今年早些时候认为,迫切需要制定一套“活”指南来管理AI和GPT-4等工具的使用和开发方式。他们担心,任何围绕人工智能技术的立法都将难以跟上发展的步伐。3月11日,博克廷和范迪斯在阿姆斯特丹大学召开了一次邀请峰会,与来自联合国教科文组织科学伦理委员会、经济合作与发展组织和世界经济论坛等组织的代表讨论了这些问题。
怀特说,尽管存在这种担忧,但GPT-4及其未来的迭代将撼动科学。“我认为这实际上将是科学领域基础设施的巨大变化,几乎就像互联网是一个很大的变化,”他说。他补充说,它不会取代科学家,但可以帮助完成一些任务。“我认为我们将开始意识到我们可以将论文,数据程序,我们使用的图书馆以及计算工作甚至机器人实验联系起来。
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-11-25 00:26
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社