|
本文是"人工智能学家"举办2015世界人工智能系统智商测试排名活动的第一篇文章。阐述了人工智能威胁论产生的起源,和辩论双方的详细意见。应该说两个阵营里都有重量级人物,但有趣的是,认同人工智能威胁论的大部分是企业家,非人工智能领域科学家,反对人工智能威胁论的多是人工智能和计算机领域的科学家,为什么出现这种情况,值得我们关注和思考。
关于人工智能的定义,美国斯坦福大学人工智能研究中心尼尔逊教授提出“人工智能是关于知识的学科――怎样表示知识以及怎样获得知识并使用知识的科学[1]。”,而另一个美国麻省理工学院的温斯顿教授认为:“人工智能就是研究如何使计算机去做过去只有人才能做的智能工作[2]。”
达特茅斯学院
1956年夏季,在美国达特茅斯学院(Dartmouth College)举行一次重要的会议,会议上以麦卡赛、明斯基、罗切斯特和申农等为首的科学家共同研究和探讨用机器模拟智能的一系列有关问题,首次提出了“人工智能”这一术语[3],它标志着“人工智能”这门新兴学科的正式诞生。此后在人工智能的发展历史上经历了多次高潮-低潮的阶段,从历史上看,在人工智能发展快速的时期往往会出现大量乐观观点,但最近这一次人工智能热潮中,乐观情绪却转变成人工智能威胁论。
一。人工智能威胁论的支持者们
谷歌技术总监雷·《奇点临近》作者库兹韦尔(Ray Kurzweil)预言人工智能将超过人类智慧。他在书中写道”由于技术发展呈现指数式的增长,机器能模拟大脑的新皮质。到2029年,机器将达到人类的智能水平;到2045年,人与机器将深度融合,那将标志着奇点时刻的到来[4]。”除此以外,支持人工智能威胁论的代表人物包括著名的物理学家霍金,微软创始人比尔盖茨,特斯拉CEO马斯克等。
著名物理学家霍金患有肌萎缩侧索硬化症(ALS),使用英特尔公司开发的一套通信系统和外界交流。这套系统涉及基本的人工智能技术,可以接收霍金的想法,从而提出词语供他选用。当被问到如何改进这套系统的时候,霍金提出了人工智能可以毁灭人类的想法。
他2014年12月2日在接受BBS采访时表示,运用人工智能技术制造能够独立思考的机器威胁人类的生存。霍金说:“人工智能的全面发展可能导致人类的灭绝。”。霍金表示,截至目前,基础性的人工智能技术已经取得一定成果,很有实用价值。不过,霍金担心,人工智能也许会在将来的某一天赶上甚至超过人类。霍金说:“它自己就动起来了,还能以前所未有的超快速度重新设计自己。人类呢,就要受到缓慢的生物进化的限制,根本没有竞争力,会被超越的[5]。”,应该提醒读者的是霍金是著名的物理学家,但并不是人工智能专业领域的专家。
特斯拉CEO马斯克对待人工智能的态度更为极端,2014年8月,他在twitter推荐尼克-伯斯特罗姆的著作《超级智能:方法、危险和策略》时写到:“我们需要超级关注人工智能。它的潜在危险性超过核武器“。
比尔·盖茨2015年1月29日在Reddit的“Ask MeAnything”论坛上表示人类应该敬畏人工智能的崛起,它可能将最终构成一个现实性的威胁,但它在此之前会使我们的生活更轻松。他的原话是“我正在关注超级智能。首先,在开始的时候机器会为我们做很多工作,这些机器并不是超级智能。如果我们处理得很好的话,这应该是具有积极意义的。那之后的几十年,人工智能会强大到足以引起人们的关注。我同意伊隆·马斯克和其他一些人的说法,不明白为什么有些人并不关心[6]。”
二,人工智能威胁论的反对者们
在人工智能威胁论热度日益高涨的情况下,人工智能领域科学家对人工智能威胁论也提出了反驳意见。Facebook人工智能实验室主任,NYU计算机科学教授Yann LeCun 2014年4月在接受IEEE 《Spectrum》采访时发表了对人工智能威胁论的看法,他认为人工智能研究者在之前很长的一段时间都低估了制造智能机器的难度。人工智能的每一个新浪潮,都会带来这么一段从盲目乐观到不理智最后到沮丧的阶段。
Yann LeCun预测的人工智能发展曲线图
Yann LeCun 提出了与威胁论支持者不同的人工智能未来发展路径,他提到大部分人觉得人工智能的进展是个指数曲线,其实它是个S型曲线,如图1.1所示。S型曲线刚开始的时候跟指数曲线很像,而且奇点理论比指数曲线还夸张,它假设的是渐进曲线。线性、多项式、指数和渐进以及S曲线的动态演变,都跟阻尼和摩擦因子有关系。而未来学家却假设这些因子是不存在的。未来学家生来就愿意做出盲目的预测,尤其是他们特别渴望这个预测成真的时候,可能是为了实现个人抱负[7]。
除了Facebook人工智能实验室主任Yann LeCun,百度首席科学家,斯坦福大学计算机科学系和电子工程系副教授吴恩达,中国科学院自动化所教授,人工智能领域专家王飞跃等也在不同场合对人工智能威胁论提出了反对意见。
科学院院士谭铁牛在 2015中国人工智能大会上表示“水能载舟,亦能覆舟,甚至有的时候是魔鬼,走的好把握的好了魔鬼就不会出现。所以这个我认为非常重要。所以尽管在我看到的未来人工智能还难以超越人类,但是它对人类社会影响反响很大。这是大的科技革命。”
中科院自动化研究所复杂系统管理与控制国家重点实验室主任王飞跃教授在“人工智能九文九答”一问中提到“我尊重任何人发表任何观点的权利,但对“人工智能威胁论”、“奇点理论”之类的论调,我的态度是坚决反对。的确,有钱有势就是任性,什么话吸引眼球就讲什么,我对这些议论和观点最好的评价只能是:无知者无畏。人工智能其实还非常初等,“威胁论”、“超越奇点”怕是在梦里都做不到。不过,我个人觉得这些言论对人工智能的发展还不能造成实质性的伤害,反到能够引起大众的更多关注。 ”
百度首席科学家,斯坦福大学人工智能专家吴恩达表示:“担心人工智能过于强大就好像担心人类会在火星过度殖民导致火星人口爆炸一样。我很希望数百年后我们能在火星生活,但目前甚至都还没有人类登上过火星,我们为何要担心在火星过度殖民的问题呢?”
地平线科技创始人,人工智能专家余凯相信:“即使到2029年,人工智能的进展也不会对人类产生威胁。因为那时的机器还没有好奇心,没有情感,没有自我意识。它们是智能的机器人,但不是智慧的机器人。智能是偏工具性的,而智慧会创造。”
三,后续研究
应该说人工智能威胁论引发争论背后,本质上是人工智能的智力发展水平能不能定量评测的问题。这个问题为什么长期没有得到解决,我们将在下一篇文章中阐述。
更多2015世界人工智能系统智商排排名信息请关注微信公众号:人工智能学家 或 AItists
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-11-24 11:40
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社