||
许多人都这想过这样一些问题,如,计算机、机器人和软件代理,是否真的可以说是有智能?计算机的智能能否超过人类智能?未来智能机器是否会对人类造成危害?
这个世界上一些最智慧的人,也考虑过人工智能若干大问题,其中包括图灵、明斯基和霍金。这里姑且分别称为图灵之问、明斯基之狂和霍金之忧。也许很多人都看到过他们有关观点报导,但他们的原话究竟是如何说的呢?
【图灵之问】
1950年,图灵在《计算机器与智能》一文的第一节的开头说道:“I propose to consider the question, ‘Can machines think?’”(我提议考虑这个问题,“机器能思考吗?”)
艾伦·图灵在跑步
[注记]:计算机科学先驱想到了“机器能思考吗?”问题。艾伦·图灵的这篇《计算机器与智能》伟大论文,是在“人工智能”术语诞生之前发表的。此前, 1948年,图灵还在英国国家物理实验室NPL写过一个内部报告,题为“智能机器”。
一些哲学家和其他研究人员认为,计算机永远不会思考,人类的大脑和思维与计算机完全不同。其中最著名的是约翰·希尔勒的中文房间争论。他认为机器根本不能思考,因为它们缺乏与世界恰当的语义联系。
在科学网海外观察博文《图灵测试、“中文房间争论”及<智能机器如何思考>》中,介绍过:现在这些人工神经网络不仅会玩游戏,还能够驾驶汽车,识别照片中的图像、识别口语语音,其水平可以与人类媲美。在这些过程中,机器是如何思考的?MIT出版社在2018年出版了谷歌前工程专家、机器学习博士肖恩·格里什(Sean Gerrish)著的《HOW SMART MACHINES THINK》(中文版《智能机器如何思考:深度神经网络的秘密》),有广泛的讨论。该书没有谈论太多的哲学问题,重点在人工智能是如何工作的,解读了一些使得现在机器显得具有如此智能的背后的算法。例如,自动驾驶汽车如何能够感知周围环境,识别道路、躲避障碍物、在十字路口避让、处理交通堵塞、换车道、找停车位等。这本书介绍的机器思考方式与人的思考方式很是不同。神经网络识别图像中的物体,击败李世石的AlphaGo和在智力问答战胜人类冠军的沃森计算机玩游戏,是否可以看作深度神经网络能够思考呢?
【明斯基之狂】
1970年,在《Life(生活)》杂志关于“第一个电子人”的一篇文章中,这样引用马文·明斯基的话:“In from three to eight years we will have a machine with the general intelligence of an average human being. ”(三至八年后,我们将拥有一台拥有普通人一般智能的机器。)明斯基接着说:“这样的机器能读懂莎士比亚的著作,会给汽车上润滑油,会玩弄政治权术,能讲笑话,会争吵。到这个程度后,计算机将以惊人的速度进行自我教育。几个月后,它将具有天才的智力,再过几个月,它的智力将无可伦比。”
2006年(达特茅斯会议后50年)几位参会者再聚首,中间为马文•明斯基
[注记]:自然,这个预测很是离谱(也有人质疑引用者记录的时间是否正确),可算是狂热。“人工智能”这个术语,是1956年在新罕布什尔州达特茅斯学院举行的夏季会议提出的。明斯基是这个会议的关键人物之一。那个时代的许多人工智能先驱理所当然地认为,在10到20年内,计算机将和人类一样聪明。如,在1965年,西蒙说过:“20年内机器能够做人所能做的一切。” 几十年过去了,机器并没有达到人类智能水平。
在科学网海外观察博文《通用AI——未来真正强健的人工智能?》中,介绍过:牛津大学未来人类研究所对人工智能的进步进行了全面的研究。这项研究采访了352名人工智能研究人员,2018年发表了名为《人工智能何时超越人类表现》的报告。其中讲到:在45年内,人工智能工具在所有任务中超过人类的可能性高达50%,在120年内,所有人类工作自动化的可能性高达50%。这个时间表是否可能实现呢?
【霍金之忧】
2014年12月,传奇物理学家斯蒂芬·霍金教授警告说,the artificial intelligence could spell doom for human existence.(人工智能可能会给人类的生存带来厄运)。在接受英国广播公司采访时,他说思维机器的发展对人类构成了严重威胁。他警告说,人工智能将自行起飞,并快速重新设计自己。人类可能被取代,因为我们被缓慢的生物进化所限制。
2014年10月,远见卓识的企业家和特斯拉汽车公司创始人埃隆·马斯克也警告说,人工智能是人类面临的最大威胁。他建议科学界确保他们“don’t do something very foolish(不要做非常愚蠢的事情)”。
斯蒂芬·霍金
[注记]:首先,基于机器学习的人工智能存在有易被愚弄、易受攻击的脆弱性,甚至有黑客可能接管强大的人工智能的危险。其次,机器学习的设计、收集数据、准备数据各个环节里,容易造成人工智能偏见。第三,智能机器能够自我进化,难于制约。
例如,自然语言处理系统理解人类语言必须接受训练。现在的NLP(自然语言处理)只是基于一些训练数据中的模式的猜测。开发人员使用训练数据,希望构建能够准确处理来自各种说话人的语言的系统。但是这些训练数据不可能反映所有可能的语音变化,包括每一种口音、方言和俚语表达。当自然语言处理技术遇到不熟悉的单词或声音时,它会猜测正确的意思,这可能会导致错误。2017年,自动翻译软件将一名巴勒斯坦男子在脸书上的“早上好”帖子翻译成希伯来语的“攻击他们”,英语的“伤害他们”。这个人被警方逮捕并拘留,直到误解得到解决。
应该说,未来AI的HSE(健康、安全、环境友好),任重道远。在科学网海外观察博文《<自然>:修复AI神经网络的缺陷》中,介绍过:科学家正在研究修复机器学习的脆弱性。探索机器学习与程序合成技术相结合,探索将深度学习与基于规则的人工智能技术相结合,探索如何使得智能体具备了解因果关系能力,将使得未来的人工智能系统更加健壮。未来十年里,AI系统能否自己探索世界,能否编写自己的算法和具有保留记忆的能力呢?
【结语】
在图灵发出“机器能思考吗?”的“图灵之问”时候,引起过学术界广泛注意和讨论,并在1956年达特茅斯会议不久,出现了人工智能研究热潮和第一个黄金时代。
从“图灵之问”到“霍金之忧”,中间相隔60多年,人工智能取得长足进步,虽然远没有达到明斯基设想的水平。其间,有过高潮,也经历过寒冬。
有专家把2011年IBM沃森计算机在综艺节目《危险边缘》中打败人类冠军和2016年谷歌 DeepMind研发的AlphaGo 战胜了世界围棋冠军李世石,称为近十年来“两项震惊世界的壮举”(见《<为什么>导读手册》)。无论如何,可以说,目前处于“新一轮的AI爆发”。正是在这样背景下,霍金等人担心人工智能会对人类构成了严重威胁。
对于霍金的警告,似乎大多数人一笑置之。尽管“人类终结”之类的话多少有点耸人听闻,但是,由于人工智能当前存在的某些缺陷、脆弱,以及未来能够自主发展、难以驾驭,存在造成对人类的损害的可能性。随着人工智能融入人类社会方方面面,人工智能技术的健康、安全发展和对环境友好(HSE),应该格外引起项目决策者和开发者的注意,让未来的人工智能更好地服务人类。
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-11-22 09:38
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社