dwchen的个人博客分享 http://blog.sciencenet.cn/u/dwchen

博文

继承Zadeh先生遗志,开创可解释性AI新局面 精选

已有 2796 次阅读 2019-9-22 18:02 |个人分类:Zadeh|系统分类:科研笔记| 人工智能, 可解释性

   神经网络的再度兴起带动了这一波人工智能(AI)的新高潮。通过大量的训练数据,深度神经网络,尤其是深度卷积神经网络(DCNN) 很好解决了高维图片的分类等问题,精度超过了人类,给人工智能的支持者打了一阵强心剂和兴奋剂。深度神经网络算法是调参高手,在大数据和GPU的帮助下,能自动学习和调整高达几千万甚至上亿的参数,达到非常高的精度,令专家和外行都惊叹不已。 

  深度神经网络(DNN)的参数多,效果好,但是可解释性就难以保证了。设计算法的人(调参师)也不知道这么多参数究竟是什么意义? 反正效果好就行了。没法解释的DNN或者难以解释的DNN,用于安全相关的领域,就不得不令人捏把汗了。特斯拉汽车发生的几起事故表明:再多的训练数据也不可能涵盖实际所有的道路状况。因此,DNN做内插拟合可以,做外推就不好说了。也就是说可解释性差的DNN,对未知世界没有把握,只能做到“举千(万)反一 ”,而难以做到“举一反三”的高级人类智能。这样的AI水平做孔子的学生是不合格的,因为“子曰:"...举一隅不以三隅反,则不复也。—《论语 述而》

   在2016年AlphaGO占胜围棋世界冠军李世石之后,基于大数据和DNN的AI技术狂飙突进了好几年。现在,我们已经冷静了很多,已经开始反思:1)深度学习不仅仅只有深度神经网络这一种实现方式;2)可解释性AI也许是下一个发展方向;3)小数据低成本的AI也应有发展空间。 

   作为世界人工智能著名专家(入选首批AI名人堂,模糊理论之父,论文总引用约20万次),美国工程院院士Zadeh教授的访问学者,我回想起10年前,我在伯克利加州大学访问时,已经80多岁高龄的Zadeh教授仍坚持每周都开学术研讨会,其中有好几次对神经网络的“批斗会”,批评其可解释性太差(Although the accuracy is very good, the interpretablity of neural netwok is too weak) 。当时,虽然模糊系统难以处理高维大数据问题,Zadeh教授就鼓励我们要坚持研究可解释性好的模糊系统(Fuzzy System),发展新的方法。虽然Zadeh先生已经仙逝2年了,但是他对科学的远见(Vision),坚持(Insistness)和洞察力(Insightness)一直留在我们的心中,激励我们继续前进。

   在此,我必须再次指出模糊系统的几点优势: 1) Fuzzy logic (模糊逻辑)是连续逻辑,比二值逻辑更科学更合理;2)Fuzzy reasoning(模糊推理) 类似与人类的思维模式,可解释性很好;3)Fuzzy rules(模糊规则)是一种从数据中获取知识的重要方式。正如Zadeh教授10年前预测的那样,可解释性AI,是AI的一个重要的前沿方向,正逐渐得到广泛认可。我认为模糊系统将在可解释AI中发挥重要作用,也许深度模糊系统也是深度学习的另一种实现方式。我认为将Zadeh先生提出的理论方法向前推进一步,使之能够解决高维大数据问题,克服“维数灾难”问题,就是纪念先生的最好方式。  




http://blog.sciencenet.cn/blog-57940-1199047.html

上一篇:一别两宽,各生欢喜的导师和研究生
下一篇:从ESI排名到爱因斯坦心中的科学殿堂

11 蔡宁 郑永军 徐义贤 杨正瓴 焦飞 王立新 李毅伟 彭真明 李维纲 黄永义 王卫

该博文允许注册用户评论 请点击登录 评论 (10 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备14006957 )

GMT+8, 2019-10-14 16:29

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部