||
一本新书
纽约大学马库斯(Gary Marcus)教授和戴维斯(Ernest Davis)教授2019年新书(参考资料[1])的书名,颇吸引眼球:《Rebooting AI : 构建我们可以信任的人工智能》——在计算机术语中,“Rebooting”是“重新启动”的意思。马库斯和戴维斯在书中对人工智能领域当前的技术现状进行了分析,并提出了实现真正强健的人工智能必须采取的步骤。
《Rebooting AI》一书封面
正如书中谈到的:在AI(人工智能)早期,没有用太多的数据,大多数研究遵循“基于知识”的方法,有时被称为GOFAI——Good Old Fashioned AI(好的老式AI),或“经典AI”。在经典AI中,研究人员通常会手工编码人工智能执行特定任务所需的知识,然后编写利用该知识的计算机程序,将其应用于各种认知挑战,比如理解故事或为机器人制定计划或证明定理。大数据是不存在的,这些系统很少把利用数据放在首位。现在,总的来说,传统的、以知识为中心的方法已经被机器学习所取代,机器学习通常试图从数据中学习所有东西,而不是依赖利用手工编码知识的、专门构建的计算机程序。当大数据革命来临时,在20世纪10年代初,神经网络终于有了自己的日子,以深度学习名义复兴。深度学习在很大程度上成为当前人工智能投资的中心——无论是在学术界还是在工业界。然而,无论是机器学习还是人工智能,深度学习并不是唯一的方法。通常用文氏图简便方法表示深度学习、机器学习和人工智能之间关系。人工智能包括机器学习,但也包括,例如,任何必要的算法或知识,是手工编码或建立的传统编程技术,而不是学习。机器学习包括允许机器从数据中学习的任何技术;深度学习是这些技术中最著名的,但不是唯一的。
人工智能在一些应用中取得了超人的性能,但现实是,我们离真正理解世界的人工智能还很远。马库斯和戴维斯区分了当今以深度学习为基础的、狭隘脆弱的人工“智能”和人工通用智能,用洞察力解释了当前方法的缺陷,并提供了一条他们认为能够通向健壮人工智能的道路。在可预见的未来,机器会超越人类吗?马库斯和戴维斯给出了他们的答案。
人工智能及其若干子领域(引用《Rebooting AI》一书第45页)
Karen Hao对马库斯的访谈
2019年9月27日《MIT技术评论》网站刊载了Karen Hao对马库斯的访谈——“我们不能相信只建立在深度学习基础上的人工智能系统”,讨论如何实现通用AI——以及为什么这可能会使机器更安全。
首先,马库斯教授认为,虽然深度学习技术在推进人工智能(AI)方面发挥了重要作用,但该领域当前对它的过分强调,很可能会导致其灭亡。马库斯列举了技术和道德方面的问题。 从技术角度来看,深度学习可能擅长模仿人脑的感知任务,例如图像或语音识别。 但这并不能满足其他任务,例如理解对话或因果关系。 为了创建功能更强大、智能程度更高的机器(通常称人工通用智能),深度学习必须与其他方法结合起来。
马库斯教授和戴维斯教授认为,创造一种能够与人类竞争或超过人类水平的智能,远比我们所认为的要复杂得多。像IBM “沃森”(Watson)计算机在《危险边(Jeopardy!)》智力竞猜电视节目获胜(注:2011年2月14日至16日,IBM “沃森”(Watson)超级电脑在智力竞猜电视节目《危险边缘(Jeopardy!)》中,与该节目历史上两位最成功的选手肯•詹宁斯和布拉德•鲁特对决,沃森获胜,成为《危险边缘》节目新的王者)和AlphaGo在围棋比赛中获胜(2016年3月9日-15日,谷歌AlphaGo以总比分4比1战胜世界顶级围棋棋手李世石),并不意味着我们已经处于完全自主的汽车或超智能机器的门口。迄今为止,这一领域的成就是在具有固定规则集的封闭系统中取得的。这些方法过于狭窄,无法达到真正的智能。我们生活的世界是极其复杂和开放的。我们怎样才能弥合这一鸿沟?当我们这样做的时候会有什么后果?马库斯和戴维斯向我们展示了在我们到达目的地之前我们首先需要完成的事情,并认为如果我们保持明智,我们就不必担心机器霸主的未来,人类可以创造出一个我们可以信任的用于家庭、汽车和医生办公室里的人工智能。
当人工智能系统无法真正了解其任务或周围环境时,也可能导致危险的后果。即使在系统环境中进行最小的意外更改,也可能导致其出错。已经有无数这样的例子:易于愚弄的诋毁言语检测器,使歧视永久化的求职系统,以及撞车的自动驾驶汽车有时会杀死驾驶员或行人。
马库斯教授和戴维斯教授认为,对通用AI的追求,不仅仅是一个有趣的研究问题,它具有非常现实的意义。在他们的新书《重启AI》中,马库斯和他的同事戴维斯提倡一条新的前进道路。他们认为我们离实现这种通用智能还差得很远,但他们也相信我们最终可以达到目标。
马库斯在Karen Hao访谈中,谈到了深度学习的弱点,该领域可以从人类心智中汲取的教训,以及他为何保持乐观。以下摘编自由Karen Hao编辑、归纳的访谈若干要点(参考资料[2])。
[我们为什么还要通用AI?窄AI已经为我们创造了很多价值。]
窄AI(注:或称弱人工智能,局限于特定应用领域)已经为我们创造了很多价值,它将产生更多价值。但是,有很多问题窄AI似乎无法解决。诸如对话的自然语言理解和虚拟世界中的通用助手之类的东西,或者诸如Rosie机器人之类的东西,可能会帮助您收拾家居或做饭(注:Rosie是20世纪60年代电视节目《杰特森一家》中的多功能家用机器人,她能照顾我们家里的一切——植物、猫、盘子和孩子。哦,再也不用打扫任何东西了)。这些是超出我们可以使用窄AI能够进行处理的范围之外。关于窄AI是否可以使我们使用安全的无人驾驶汽车,这也是一个有趣的经验性问题。到目前为止,现实是窄AI在异常情况下甚至存在很多问题,即使是对于驾驶,这也是一个有相当限制的问题。
一般说来,我认为我们都希望看到AI可以帮助我们大规模地获得医学新发现。由于生物学很复杂,目前尚不清楚当前的技术是否可以使我们到达需要的位置。您确实需要能够阅读文献。科学家对网络和分子如何相互作用具有因果关系的理解。他们可以发展有关轨道和行星等理论。借助窄AI,我们无法让机器来实现这种创新水平。有了通用AI,我们也许就能彻底改变科学、技术和医学。因此,马库斯教授认为致力于通用AI的工作是非常值得。
[听起来你是把通用AI称为强健人工智能?]
通用AI是能够思考并独立解决新问题的AI。这与问题情况相反,例如围棋在2000年里没有变化。
通用AI类似于人类;任何一个聪明的人都可以做很多、很多不同的事情。你需要一个大学生实习生,几天之内,他们就可以从法律问题到医疗问题。这是因为他们对世界有一个普遍的了解,他们可以阅读,所以他们能够为各种各样的事情做出贡献。
这种关系和强健的智能之间的关系是,如果你不强健,你可能真的不能做一般的事情。因此,为了建立一个足够可靠的东西来应对一个不断变化的世界,你至少可能需要通用智能。
但你知道,我们现在还差很远。AlphaGo可以在19x19围棋棋盘上玩得很好,但实际上必须重新训练,才能在矩形围棋棋盘上玩。或者你用你的一般水平深度学习系统可以识别大象——只要大象很亮,你可以看到大象的纹理。但如果你把大象画成剪影,它很可能就认不出来了。
[正如你在书中提到的,深度学习不能真正达到通用AI,因为它缺少深刻的理解。]
在认知科学中,我们讨论的是事物的认知模型。所以我坐在酒店的房间里,我知道有个壁橱,有一张床,还有一台不寻常的电视机。我知道这里有这么多东西,我不只是指认它们。我也理解它们之间的关系。我对外部世界的运作有这些想法。它们并不完美。它们是可能出错,但它们相当好。我在它们周围做了很多推论来指导我的日常行为。
相反的极端是类似于DeepMind制作的Atari游戏系统,当它看到屏幕上特定位置的像素时,它会记住需要做什么。如果得到足够的数据,看起来已经理解了,但实际上这是一个非常肤浅的理解。证明是如果你移动三个像素,它的播放效果会差得多。它随着变化而断裂。这与深刻理解相反。
[你建议回到经典人工智能去解决这个挑战。经典人工智能的优点是什么,我们应该尝试合并?我只是有点太吃惊了,深度学习社区对这一点的评价有多低。]
有一些。首先,经典人工智能实际上是一个构建世界认知模型的框架,然后你可以进行推理。第二件事是,经典的人工智能完全符合规则。这是一个奇怪的社会学,现在人们在深度学习中想要避免规则。他们想用神经网络做任何事情,对任何看起来像经典编程的东西都不做任何事。但是有些问题通常是这样解决的,没有人注意,比如在谷歌地图上制作你的路线。
我们实际上需要两种方法。机器学习在学习数据方面是很好的,但是它很难表示计算机程序所表示的抽象。经典的人工智能在抽象方面很好,但都需要手工编码,世界上有太多的知识来人工输入所有东西。所以很明显,我们想要的是一种能混合这些方法的合成。
[这涉及到你提到的我们可以从人类头脑中学到的东西的章节。第一个是建立在我们已经讨论过的观念之上——我们的思想是由许多不同的系统组成的,它们以不同的方式工作。]
我认为有另一种方法来解释这一点,即:我们所拥有的每一个认知系统,都在做着不同的事情。类似地,人工智能中的对应方需要被设计来处理具有不同特征的不同问题。
现在,人们正试图使用某种“一刀切”(one-size-fits-all)的技术来解决根本不同的问题。理解一个句子和认识一个对象有根本的不同。但是人们试图用深度学习来做到这两个目标。从认知的角度来看,这些都是质的不同的问题。而我有点惊讶深度学习社区对这一点的总体评价是如此之低。为什么指望一颗银弹就能解决所有这些问题呢?这是不现实的,它并没有揭示AI所面临的挑战的复杂理解。
[你提到的另一件事是,人工智能系统需要理解因果关系。你认为这会来自深度学习,经典人工智能,还是全新的东西?]
这又是一个深度学习并不特别适合的地方。深度学习不能解释事情发生的原因,而是在给定的情况下可能发生的可能性。
要建立我们可信任的AI,必须赋予它们对“时间”、“空间”和“因果关系”的理解能力。虽然操作上一定会有很多挑战,同时也意味着要放弃大量现有对AI的研究结果,但只有这样,我们才能设计出我们需要的AI。
[大自然创造了初稿,即草稿。然后学习在整个余下的时间里里修改草稿。]
我们讨论的这类事情,你看了一些场景,你了解了为什么会发生,如果某些事情发生了改变,会发生什么。我可以看一下酒店电视上的画架,我猜如果我剪掉一条腿,画架就会翻倒,电视机就会掉下来。这是因果推理。
经典人工智能为我们提供了一些工具。例如,它可以表示什么是支持关系,什么正在崩溃。不过,我不想卖过头。一个问题是,经典的人工智能主要依赖于关于正在发生的事情的非常完整的信息,而我只是在没有看到整个画架的情况下做了这个推断。所以我能走捷径,推断出我看不见的画架碎片。我们还没有真正能做到这一点的工具。
[你提出的第三件事是人类拥有先天就具有的知识的想法。你如何看待它被纳入人工智能系统?]
对于人类来说,在你出生的时候,你的大脑实际上是非常精细的结构。它不是固定的,但大自然创造了初稿,即草稿。然后学习在整个余下的时间里修改草稿。
大脑的草图已经有了一定的能力。一只刚出生几个小时的小山羊可以在山上爬行而不犯错误。显然,它对三维空间、它自己的身体以及两者之间的相互关系有一定的理解。相当复杂的东西。
这就是我认为我们需要混合的部分原因。很难想象我们如何能在没有一个类似的知识的前提下建造一个在世界上运行良好的机器人,而而不是从一张白纸开始,通过大量的经验学习。
对人类来说,我们天生的知识来自于随着时间的推移而进化的基因组。对于人工智能系统,它们必须以不同的方式出现。其中一些可以来自我们如何构建算法的规则。其中有些可以来自我们如何构建这些算法操作的数据结构的规则。有些知识可能来自我们直接教导机器的知识。
[有趣的是,你把书中的所有内容都与信任和建立可信任系统的思想联系起来。你为什么特别选择那个框架?]
因为我觉得现在是整个球赛。我认为我们生活在一个奇怪的历史时刻,在这个时刻,我们对不值得信任的软件给予了很多信任。我认为我们现在的忧虑不是永久的。一百年后,人工智能将保证我们的信任,也许更快。
但现在人工智能是危险的,而不是像埃隆·马斯克担心的那样。但是在面试系统中,不管程序员做什么,都会歧视女性,因为他们使用的技术太简单了。
我希望我们有更好的人工智能。我不希望我们有一个人工智能的冬天,在那里人们意识到这些东西不起作用,是危险的,他们不做任何事情。
[在某种程度上,你的书实际上感觉非常乐观,因为你暗示有可能建立可信赖的人工智能。我们只需要换个方向。]
对,这本书是非常短期的悲观和非常长期的乐观。我们认为,如果这个领域能从更广泛的角度来看待什么是正确的答案,我们在书中所描述的每一个问题都可以解决。我们认为如果那样的话,世界会变得更好。
未来AI
对于人工智能的未来,是否还有其他专家和马库斯教授持类似的观点?
在马库斯和戴维斯的《Rebooting AI 》出版之前,图灵奖得主朱迪亚•珀尔在2018年出版了名为《The Book Of Why》的书(参考资料[3])。在书中阐述了人类具备推断行为后果的因果关系能力,得以进化出智能。在书中讲述了因果关系的三个层级,而把人工智能大数据分析和深度学习置于因果关系之梯的最低层级,与猫头鹰相提并论。书中谈到了马库斯的观点(参考资料[3],第35页):深度学习的成功确实是了不起的,让我们许多人感到惊讶。然而,深度学习的成功主要表现在我们认为困难实际上并不困难的问题或任务。它并没有解决真正困难的问题,这些问题继续阻止我们实现类人人工智能。其结果是公众误以为,像人类一样思考的“强人工智能”机器就在眼前,甚至可能已经在这里了。事实上,并非如此。我完全同意纽约大学的神经学家加里·马库斯(Gary Marcus)的观点,他最近在《纽约时报》上撰文称,人工智能领域正在“涌现出大量的微发现”——这类东西是新闻稿好素材,但机器仍然令人失望地与类人的认知相差甚远。我在加州大学洛杉矶分校计算机科学系的同事阿德南·达尔里维奇发表了一篇题为《人类水平的智力或类似动物的能力?》的论文。我认为这是一个正确的问题框架。强大人工智能的目标是制造出具有类似人类智能的机器,能够与人类对话和引导人类。相反,深度学习给了我们真正令人印象深刻的能力但没有智力的机器。这种差异是深刻的,在于缺乏一种现实的模式。
朱迪亚•珀尔这本书很值得仔细研读。此书中文版《为什么:关于因果关系的新科学》,已经由中信出版集团出版。
朱迪亚•珀尔《The Book Of Why》的书封面及其中文版
未来人工智能能够超越人类吗?人工智能的进步将通过重塑交通、健康、科学、金融和军事来改变现代生活。牛津大学未来人类研究所对人工智能的进步进行了全面的研究。这项研究采访了352名人工智能研究人员,发表了名为《人工智能何时超越人类表现》的报告(参考资料[4])。其中讲到::人工智能很可能会根据下面的估计时间表取得进展——对以下任务,到相应的年份人工智能能够超越人类::翻译语言——2024年;写高中论文——2026年;驾驶卡车——2027年;零售业工作——2031年;写畅销书——2049年;实施手术——2053年。
这项研究还发现,在45年内,人工智能工具在所有任务中超过人类的可能性高达50%,在120年内,所有人类工作自动化的可能性高达50%。这可能会有点令人震惊。鉴于如此先进的技术,人们将无所事事吗?相信人工智能将主要执行重复性的任务,给我们更多的时间专注于人类最擅长的创造性和创新性工作,并参与我们最喜欢的有趣的活动。最后,研究中接受采访的大多数研究人员认为,随着人工智能在基本任务上开始超越人类,它很可能对人类整体产生积极影响。
牛津大学未来人类研究所对人工智能执行某些任务将超越人类的时间表预测
结语
马库斯教授在其新书中,对人工智能持非常短期的悲观和非常长期的乐观不无道理。我相信未来人工智能将不再狭隘、脆弱,相信未来人工智能会提升朱迪亚•珀尔所说的因果关系层级,也相信牛津大学未来人类研究所所预测人工智能能够完成的任务,有可能按估计的时间表取得进展——但是,我怀疑这些任务将会由某种通用AI完成,这也是这篇读书札记的标题加了问号“?”原因。
参考资料:
[1] Gary F. Marcus, Ernest Davis. Rebooting AI: Building Artificial Intelligence We Can Trust. Pantheon Books.2019.
[2] Karen Hao. We can’t trust AI systems built on deep learning alone: Gary Marcus, a leader in the field, discusses how we could achieve general intelligence—and why that might make machines safer. https://www.technologyreview.com/s/614443/we-cant-trust-ai-systems-built-on-deep-learning-alone/
[3] Judea Pearl, Dana Mackenzie. The Book of Why: The New Science of Cause and Effect. AllenLane. 2018.
[4] Katja Grace, John Salvatier, Allan Dafoe, Baobao Zhang, and Owain Evans.When Will AI Exceed Human Performance? Evidence from AI Experts. arXiv:1705.08807v3 [cs.AI] 3 May 2018
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-11-22 01:21
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社