||
人工智能之深度学习不能仅仅是深度神经网络
深度学习是当今人工智能领域炙手可热的技术,也是人工智能第三次复兴的关键。深度学习的发展有3个重要阶段:1)1998年, LeCun提出卷积神经网络LeNet使得手写体识别的精度大幅度提高;2)2003年,Bengio基于循环神经网络提出新的NLP(自然语言处理)模型,效率大幅提高 3) 2012年,Hinton和研究生Alex提出AlexNet,获得ImagetNet大赛冠军并远超第二名。 自从之后,大量的相关应用研究和改进研究层出不穷,几万篇论文甚至更多的论文发表,推动了深度神经网络的快速发展。
2015年,深度学习神经网络三位顶级专家 Lecun Y , Bengio Y , Hinton G合作在Nature合作发表著名论文“Deep Learning (深度学习)”,[Deep learning[J]. Nature, 2015, 521(7553):436-444.],目前已引用1万多次。这篇论文正式标志着,以深度神经网络为代表的深度学习技术正式走向人工智能研究的中央C位。在深度神经网络发展的过程中,得到了Google, 微软和Facebook等互联网巨头的大力加持,发布了很多相关的研发平台,大大缩短了研发者的时间。于是,深度神经网络的研究与应用开始一日千里的快速发展。由此,这三位杰出的科学家在2019年获得了图灵奖。下面,我们再分析一下这篇经典论文的摘要,共分4句。
第1句: Deep learning allows computational models that are composed of multiple processing layers to learn representations of data with multiple levels of abstraction. 深度学习允许由多个处理层组成的计算模型学习具有多个抽象层次的数据表示。这句话没有问题,没有特指深度神经网络。
第2句: These methods have dramatically improved the state-of-the-art in speech recognition, visual object recognition, object detection and many other domains such as drug discovery and genomics. ( 这些方法极大地提高了语音识别、视觉目标识别、目标检测以及药物发现和基因组学等许多领域的技术水平。)这句话说明深度学习应用范围很广,也没有问题。
第3句: Deep learning discovers intricate structure in large data sets by using the backpropagation algorithm to indicate how a machine should change its internal parameters that are used to compute the representation in each layer from the representation in the previous layer. (深度学习通过使用反向传播算法来发现大型数据集中的复杂结构,以指示机器应如何改变用于从前一层的表示中计算每一层的表示的内部参数。) 这句话有些问题,学习不一定要神经网络特有的反向传播算法,可以是其他模型和其他算法。
第4句: Deep convolutional nets have brought about breakthroughs in processing images, video, speech and audio, whereas recurrent nets have shone light on sequential data such as text and speech. (深度卷积网络在处理图像、视频、语音和音频方面取得了突破性进展,而递归网络则为文本和语音等连续数据带来了光明。)这句话也有些问题,深度卷积网络和递归网络是2种典型的神经网络,不过其他方法也可以取得很好的效果,甚至更好的效果。
“月满则亏,盛极而衰”,最近几年,深度神经网络的热潮渐渐褪去,或者说有很多质疑的声音,比如模型复杂度太高,算法可解释性较差,应用成本较高,安全性难以保证等。最近几年,随着大家对于深度学习的理解不断深入,发现深度学习是个好概念,但是不能仅仅局限于深度神经网络,应该有更宽泛的意义,应有更多不同的解决方法和技术路线 。
近年来,我国科研工作者明显有了科研自信和创新自信,人工智能研究学者已经不满足于跟踪和改进国外的一流研究成果,而是敢于提出不同的思路和解决方法。比如中科院的王飞跃教授提出了平行学习,华南理工大学的陈俊龙教授提出了宽度学习,清华大学的朱军教授提出了贝叶斯深度学习,南京大学的周志华教授提出了深度森林,中科院大学的王立新教授提出了深度卷积模糊模型;我们课题组也提出了深度神经模糊系统等等。是不是有点百花齐放,百家争鸣的感觉?
可惜,我国的互联网巨头们目前还没有更上,他们还在陶醉在平台的用户数,并耗费巨资与菜贩果贩争蝇头小利,却全然不顾或嘲笑讽刺国外巨头已把目标锁定在遥远的通用人工智能和火星移民。
爱因斯坦说“A person who never made a mistake never tried anything new.“( 一个从不犯错误的人,一定从来没有尝试过任何新鲜事物。)希望国内IT产业不要满足于在国外成熟的平台上进行快速二次开发,而是不要怕犯错,与学术界紧密合作,推出其他类型深度学习或机器学习的开发平台,打造人工智能产业生态链,从而使得我国人工智能研究和产业的发展能植根于我们自主的平台和技术,这才能未雨绸缪,向北斗系统学习,避免人工智能科研“卡脖子”事件的发生。
作者简介:陈德旺,IEEE高级会员,IEEE Trans.on ITS 编委,中国自动化学会混合智能专委会副主任,中国运筹学会智能计算分会副理事长,美国加州大学伯克利分校访问学者,福州大学数学与计算机科学学院教授、博士生导师,主要研究方向为人工智能、大数据和智能交通等。至今发表论文120余篇,其中SCI检索论文40余篇,IEEE Transaction论文13篇,他引3000余次;获得各类科研奖励10多项。
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-12-27 00:57
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社