|
面对人工智能的能力越来越强,所谓人类独有的能力一点点都被机器完成并超越,人类智能最终的超越是完全超过人类大脑,这并不是不可能的事。显著事语言理解能力被模拟,将来就是思维和意识能力,超越意味着淘汰。人类未来的命运真的令人堪忧。
Human-like systematic generalization through a meta-learning neural network | Nature
科学家们创建了一个具有类似人类能力的神经网络,可以对语言进行概括。人工智能系统在将新学的单词折叠到现有词汇中并在新的语境中使用它们的方面与人类的表现大致相同,这是人类认知的一个重要方面,称为系统归纳。
研究人员向聊天机器人ChatGPT的底层人工智能模型提出了同样的任务,发现它在这种测试中的表现比新的神经网络或人类差得多,尽管聊天机器人能够以类似人类的方式进行对话。
这项工作于10月25日在《自然》杂志上发表,可能会促使机器在与人类互动时比当今最好的人工智能系统更自然。虽然基于大型语言模型的系统的对话能力在许多上下文中都很出色,但也存在明显的不足和不一致。
专门从事语言研究的认知科学家保罗·斯莫伦斯基说,神经网络与人类相似的表现表明,“训练网络进行系统归纳的能力取得了突破”。他在马里兰州巴尔的摩市的约翰霍普金斯大学工作。
系统归纳体现在人们能够毫不费力地将新学的单词运用到新的语境中。例如,一旦有人掌握了“photobomb”这个词的含义,他们就能在各种情况下使用它,比如“photobomb两次”或“在Zoom电话中photobomb”。同样,理解句子“猫追狗”的人也会理解“狗追猫”,而不需要太多额外的思考。
但是,神经网络并不能天生具备这种能力。神经网络是一种模仿人类认知的方法,已经主导了人工智能研究。认知计算科学家布伦登·莱克是这项研究的合著者,他也是纽约大学的认知计算科学家。他说,与人类不同,神经网络在接受大量使用该单词的样本文本的训练之前,很难使用新单词。人工智能研究人员争论了将近40年,如果神经网络不能证明这种系统性,它们是否永远不能成为人类认知的合理模型。
为了解决这场争论,作者们首先测试了25个人如何将新学的单词应用到不同的情况。研究人员通过测试他们在一门由两个类别无意义单词组成的伪语言上来确保参与者是第一次学习这些单词。“原始”词,如“dax”、“wif”和“lug”,代表基本的、具体的动作,如“跳过”和“跳”。更抽象的“功能”词,如“blicket”、“kiki”和“fep”,规定了使用和组合原始词的规则,产生诸如“跳三次”或“向后跳”之类的序列。参与者被训练将每个原始词与一个特定颜色的圆圈联系起来,这样红圈代表“dax”,蓝圈代表“lug”。研究人员然后向参与者展示了原始词和功能词的组合以及应用功能后原始词的圆圈模式。例如,“dax fep”一词与三个红圈一起显示,而“lug fep”与三个蓝圈一起显示,表明 fep 表示重复原始词三次的抽象规则。
最后,研究人员通过给出原始词和功能的复杂组合来测试参与者的应用这些抽象规则的能力。然后,他们必须选择正确的颜色、圆圈数量,并将其按适当的顺序放置。
认知基准
正如预测的那样,人们在任务中表现出色;他们平均选择了大约80%的正确颜色的圆圈组合。当他们犯错误时,研究人员注意到这些错误遵循一种反映已知人类偏见的模式。
接下来,研究人员训练了一个神经网络来完成与给参与者呈现的任务相似的任务,通过编程使其从错误中学习。这种方法使人工智能在完成每个任务时学习,而不是使用静态数据集,这是训练神经网络的标准方法。为了使神经网络类似人类,作者训练它来复制他们在人类测试结果中观察到的错误模式。当神经网络在新的谜题上测试时,其答案几乎完全对应于人类志愿者的答案,并且在某些情况下超过了他们的表现。
相比之下,GPT-4在完成同样的任务时表现不佳,平均而言,在42%到86%的时间内失败,这取决于研究人员如何呈现任务。“这并不是魔术,而是练习,”莱克说,“就像孩子在学习母语时也会练习一样,模型通过一系列组合学习任务来提高他们的组合技能。”
新墨西哥州圣达菲研究所的计算机和认知科学家梅拉妮·米切尔说,这项研究是一个有趣的原理证明,但这种训练方法是否能够扩展到更大规模的数据集甚至图像,还有待观察。莱克希望通过研究人们如何从小培养系统归纳的能力来解决这个问题,并将这些发现纳入构建更强大的神经网络。
德国奥斯纳布吕克大学的自然语言处理专家埃利亚·布鲁尼表示,这项研究可以使神经网络成为更有效的学习者。这将减少训练ChatGPT等系统所需的大量数据,并将最大程度地减少“幻觉”,即AI感知到不存在的模式并产生不准确的输出。“将系统性注入神经网络是一件大事,”布鲁尼说,“它可以同时解决这两个问题。”
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-6-16 22:11
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社