||
1974年至1980年是第一个人工智能冬季持续的时间。人工智能冬季是指人工智能研究资金严重短缺的时期。在人工智能冬季,虽然人们对人工智能宣传的兴趣降低了,但一些研究工作仍然在进行。
1974年:6月马文·明斯基提出表示知识的框架(Frame)。框架理论的核心是以框架这种形式来表示知识。框架的顶层表示固定的概念、对象或事件。下层由若干槽(slot)组成,其中可填入具体值,以描述具体事物的特征。
1975年:保罗•沃博(Paul Werbos)利用2层反向传播网络学习,有效地解决了异或问题(XOR)。
1977年,罗杰·沙克(Roger C. Schank)和罗伯特·艾贝尔森(Robert P. Abelson)提出了脚本理论(Script Theory)和脚本应用机制(SAM)。他们指出我们的部分知识是围绕着数百种常规活动的情景组织起来的。沙克使用“脚本”一词指一个人对某个情景动作的常规知识进行编码的记忆结构。脚本理论可以看作明斯基框架理论的细节具体化。
1978年:吴文俊提出的几何定理机器证明新方法,获得全国科学大会重大科技成果奖。赫伯特·西蒙因其有限理性理论获得诺贝尔经济学奖,该理论是人工智能的基石之一。
1979年:第一辆计算机控制的自主汽车诞生了。斯坦福Cart成为第一辆由计算机控制的无人驾驶汽车,因为它能“看见”三维物体,所以它能在无人干预的情况下,在充满椅子的房间中成功地驾驶。福岛久野(Kunihiko Fukushima)创造了学习识别视觉模式的人工神经网络,并被应用于手写字符和其他模式识别任务,如推荐系统,甚至自然语言处理。特德·肖特里夫(Ted Shortliffe)最初作为斯坦福大学博士课题编写的Mycin系统,使用了600多条人工规则去对感染进行判断和抗生素推荐。匹兹堡大学的杰克·迈尔斯(Jack Myers)和哈里·波普尔(Harry Pople)开发了INTERNIST(内科医生)系统,一个基于计算机的实验性普通内科诊断顾问系统。
由计算机控制的无人驾驶汽车斯坦福Cart
20世纪70年代:约瑟夫·唐纳德·诺瓦克(Joseph Donald Novak)发明概念图:概念图是描述概念之间建议的关系的图。它是一个图形工具,用来组织和构造知识。
70年代末:斯坦福大学的SUMEX-AIM资源由埃德·费根鲍姆和乔舒亚·莱德伯格领导,展示了ARPAnet在科学合作方面的力量。
1980年: DEC(数字设备公司)研发了Xcon专家学习系统。美国人工智能协会第一次全国会议在斯坦福大学举行。李曼、里克·海斯-罗斯、维克多·莱瑟和雷迪发表了黑板模型的第一个描述,作为Hearsay II语言理解系统的框架。
20世纪80年代初期:钱学森等主张开展人工智能研究。
1981年:鲁道夫·威尔提出形式概念分析(Formal concept analysis,FCA),一种从对象及其属性的集合中导出概念层次或形式本体的原则方法。它建立在格和有序集的数学理论基础上。丹尼·希利斯设计了连接机器,这是一种大规模并行架构,为人工智能和一般计算带来了新的力量 (后来成立了思维机器公司)。9月,中国人工智能学会(CAAI)在长沙成立,秦元勋当选第一任理事长。
1982年:霍普菲尔德(Hopfield)网络的创建。约翰·霍普菲尔德(约翰·霍普菲尔德)创造并推广了现在以他名字命名的系统。它由包含一个或多个完全连接的递归神经元的单层组成。
1983年:约翰·莱尔德和保罗·罗森布鲁姆与艾伦·纽威尔合作,提出人类认知的架构SOAR。其主要元素是问题空间的概念——所有的认知行为都是某种形式的搜索任务。记忆是单一的和程序性的;程序性记忆和陈述性记忆没有区别。组块是学习的主要机制,代表着解题行为向长期记忆的转化。12月6日 由中国人民解放军国防科技大学研制成功的中国第一台亿次巨型计算机——“银河-I”计算机在长沙通过国家鉴定,填补了国内巨型计算机研制的空白(见《中华人民共和国大事记(1949年10月—2019年9月)》)。
1985年:哈乐德·科恩创建的自主绘图程序Aaron在AAAI全国会议上演示。计算神经科学家特里·塞恩诺夫斯基(Terry Sejnowski)利用他对学习过程的理解创造了网络语言。该项目学习了如何像孩子一样发英语单词的音,并且能够在将文本转换成语音的过程中,随着时间的推移不断改进。
1986年:形状识别和单词预测的改进。戴维·鲁梅尔哈特(David Rumelhart)、杰弗里·辛顿(Geoffrey Hinton)和罗纳德·威廉姆斯(Ronald J. Williams)在《PDP(并行分布式处理)》一书中详细地描述了反向传播的过程。他们展示了它是如何极大地改进现有的神经网络来完成许多任务的,比如形状识别、单词预测等等。尽管在最初的成功后经历了一些挫折,辛顿在随后的第二个人工智能冬季继续他的研究,以求得新的成功和突破。许多业内人士认为他是深度学习的教父。
1980年代中期:神经网络与反向传播算法(1974年由保罗•沃博首次描述)被广泛使用。
第二个人工智能冬季(1987-1993)
1987年至1993年是第二个人工智能冬季持续时间。投资者和政府再次停止为人工智能研究提供资金,原因是成本高,但效果不佳。
1986年:明斯基出版了《心智社会》,这是一本广受欢迎的关于心智社会理论的综合性大众读物。
1989:CMU的迪安·波默洛创造了ALVINN(一种神经网络中的自动陆地车辆),它发展成为一种在计算机控制下驾驶汽车从一个海岸到另一个海岸行驶2850英里的系统。
1988年:统计方法。IBM研究人员发布了一种语言翻译的统计方法,将概率原理引入到机器学习的规则驱动领域。它解决了人类语言(法语和英语)之间自动翻译的挑战。这标志着一个重点的转变,即设计程序,以根据他们接受过培训的信息(数据)来确定各种结果的概率,而不是训练他们确定规则。在模拟人脑的认知过程方面,这通常被认为是一个巨大的飞跃,并形成了今天机器学习的基础。
1989年:机器读取手写数字。乐昆(Yann LeCun)将卷积神经网络与最近的反向传播理论相结合,用于阅读手写数字。他的系统最终被NCR和其他公司用来读取手写支票和邮政编码。克里斯托弗·沃特金斯(Christopher Watkins)发表了博士论文——“从延迟奖励中学习”。在书中,他引入了Q学习的概念,大大提高了机器强化学习的实用性和可行性。这种新算法表明,在不模拟马尔可夫决策过程的转移概率或预期回报的情况下,直接学习最优控制是可能的。
1990年:普林斯顿大学的心理学家,语言学家和计算机工程师联合设计基于认知语言学的WordNet。WordNet将单词链接到语义关系中,包括同义词、下位词和别名,按照单词的意义组成一个“单词的网络”。
1991年:互联网的诞生。这一年,欧洲核子研究中心研究员蒂姆•伯纳斯•李(Tim Berners-Lee)将世界上第一个网站放到了网上,并发表了超文本传输协议(HTTP)的工作原理。互联网是整个社会将自己插入网络世界的催化剂。在短短几年内,来自世界各地的数百万人将以前所未有的速度连接、生成和共享数据——数据是人工智能的燃料。
1992年:约翰·科扎(John R. Koza)使用遗传算法来演化程序以执行某些任务。他称他的方法为“遗传编程”(GP)。使用了LISP程序,因为这种语言的程序可以以“解析树”的形式表示,这是GA工作的对象。
20世纪90年代:描述逻辑。描述逻辑是一种形式知识表示语言。它比命题逻辑更有表现力。此外,对于决策问题它比一阶谓词逻辑有更有效。
20世纪90年代:发展进化计算。运用达尔文理论解决问题的思想起源于20世纪50年代。20世纪60年代,这一想法在三个地方分别被发展起来:美国的Lawrence J. Fogel提出了进化编程(Evolutionary programming);美国Michigan 大学的John Henry Holland则借鉴了达尔文的生物进化论和孟德尔的遗传定律的基本思想,并将其进行提取、简化与抽象提出了遗传算法(Genetic algorithms);在德国,Ingo Rechenberg 和Hans-Paul Schwefel提出了进化策略(Evolution strategies)。到了20世纪90年代初,遗传编程(Genetic programming)这一分支也被提出。
1993:德国计算机科学家施密德胡贝尔(Jürgen Schmidhuber)解决了一个“非常深度的学习”任务,这个任务需要1000多个递归神经网络层。这是神经网络在复杂性和能力上的一个巨大飞跃。
1995年:支持向量机。科琳娜·科尔特斯(Corinna Cortes)和弗拉基米尔·瓦普尼克(Vladimir Vapnik)推出支持向量机标准模型。支持向量机自20世纪60年代就已经存在,现在的标准模型由科尔特斯和瓦普尼克于1993年设计,并于1995年推出,经过几十年的调整和完善。SVM基本上是用于识别和映射相似数据的系统,并且可以用于文本分类、手写字符识别和图像分类,它涉及机器学习和深度学习。
1996年:拉里·佩奇和谢尔盖·布林(Sergey Brin)基于斯坦福校园网络共同创建了谷歌,创新出一种前所未见的搜索引擎。10-11月,阿尔贡国家实验室的EQP定理证明程序在数学上证明了罗宾斯猜想。
1997年:5月11日IBM深蓝击败世界象棋冠军加里卡斯帕罗夫。IBM的国际象棋超级计算机从本质上讲,它依赖于“蛮力”的方法来高速计算每个可能的选项,而不是分析游戏和学习游戏。然而这一事件引起了人们的注意,显示了计算机在人类以前从未挑战过的活动中变得越来越有能力。7月4日美国国家航空航天局的探路者任务成功着陆,第一个自主机器人系统索杰纳被部署在火星表面。同年,2000只互动机器人宠物上市。机器人Nomad探索南极洲的偏远地区并定位陨石。第一场机器人杯足球赛,包括40个互动机器人团队和5000多名观众的桌面比赛。
1997年:于尔根·施密德胡贝尔(Jürgen Schmidhuber)和塞普·霍克里特(Sepp Hochreite)提出了一个递归神经网络框架——长短期记忆(LSTM),提高了递归神经网络的效率和实用性。随着时间的推移,LSTM网络得到广泛应用,谷歌最近将其应用于安卓智能手机的语音识别软件中。
1998年:基于梯度的学习。乐昆(Yann LeCun)发表了 “基于梯度的学习应用于文档识别”论文,这是他在深度学习领域的又一个贡献。随机梯度下降算法(又称基于梯度的学习)与反向传播算法相结合,是深度学习的首选和越来越成功的方法。
2000年:新奇玩具交互式机器人宠物(又称“智能玩具”)成为商用。麻省理工学院的辛西娅·布雷泽尔(Cynthia Breazeal)发表了她关于社交机器的论文,描述了KISMET,一个面部表情表达情感的机器人。Kismet是一款模仿人头部的机器人,是研究机器能否辨认和模仿人的情感的一项实验,早在1997年在麻省理工学院展示过。 Kismet 一词来自一个土耳其语单词,意为“命运”或“好运”。
MIT模仿人头部的机器人Kismet
2001年:1月15日首次出版维基百科。维基百科是一个多语种的在线百科全书,由一群志愿者编辑使用基于维基的编辑系统创建和维护,作为一个开放的合作项目。
2002年:人工智能以真空吸尘器Roomba的形式首次进入家庭。
2004年:美国国防高级研究计划局举行第一次DARPA挑战赛,旨在促进开发完全自动驾驶车辆所需技术的发展。所有参赛者都没有获得成功。
2005年:美国国防高级研究计划局举行第二次DARPA挑战赛——在莫哈韦沙漠100多公里的越野地形上进行自动驾驶汽车比赛。有五辆车绕道而行,斯坦福大学的团队以最快的速度获得了这个奖项。由丹尼·希利斯、韦达·鲁宾卡·库克和约翰·詹南德瑞共同创立的METAWEB公司,开发了Freebase——一个“开放的、共享的世界知识数据库”。。
2006年:人工智能进入商业世界。Facebook、Twitter和Netflix等公司也开始使用人工智能。8月,中国人工智能学会联合其他学会和有关部门,在北京举办了“庆祝人工智能学科诞生50周年”大型庆祝活动。除了人工智能国际会议外,纪念活动还包括由中国人工智能学会主办的首届中国象棋计算机博弈锦标赛暨首届中国象棋人机大战。
2007年,华盛顿大学计算机科学系教授奥伦·埃齐奥尼(Oren Etzioni)提出术语“Machine Reading(机器阅读)”——对文本的自动、无监督的理解。马克斯·普朗克计算机科学研究所开发的开源语义知识库YAGO。它是自动从维基百科和其他来源提取信息。
2009年:ImageNet教计算机理解图片。斯坦福大学人工智能实验室教授李飞飞于推出了ImageNet,一个非常大的免费数据库,有超过1400万张标签图像可供研究人员、教育工作者和学生使用。标签数据是在监督学习中“训练”神经网络所需要的。图像是根据Wordnet进行标记和组织的,Wordnet是一个英语词汇数据库,包括名词、动词、副词和形容词,按同义词组进行分类,称为synsets。
ImageNet包含有各种各样标签图像(来源:ImageNet网站)
2010年:科大讯飞发布其开放云平台,该平台免费向开发者提供科大讯飞的语音合成、语音识别、语音唤醒、语义理解等智能服务。中国国防科学技术大学研制的“天河一号”曾在第三十六届超级计算机TOP500榜单上名列第一。此后,“天河二号”在2013-2015年间,六次在TOP500榜单上名列第一。秋,IBM发布WATSON(沃森)。沃森是一台IBM超级计算机,它结合了人工智能和复杂的分析软件,作为一台“问题回答”机实现最佳性能。这台超级计算机是以IBM创始人托马斯·J·沃森的名字命名的。格雷戈里·柴丁(Gregory Chaitin)出版《Biological Modeling(生物建模)》。
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-11-25 23:45
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社