程京德(Jingde Cheng)的博 ...分享 http://blog.sciencenet.cn/u/JingdeCheng 相关逻辑,软件工程,知识工程,信息安全性工程;自强不息,厚德载物。

博文

对徐英瑾之“主流人工智能批判”的批判

已有 670 次阅读 2024-12-9 08:18 |个人分类:人工智能|系统分类:观点评述

[敬请读者注意] 本人保留本文的全部著作权利。如果哪位读者使用本文所描述内容,请务必如实引用并明白注明本文出处。如果本人发现任何人擅自使用本文任何部分内容而不明白注明出处,恕本人在网上广泛公布侵权者姓名。敬请各位读者注意,谢谢!

        

对徐英瑾之“主流人工智能批判”的批判 

程京德

                    

    偶然在网上看到徐英瑾对尼克著《人工智能简史》的批评[1,2],进而发现了复旦大学哲学学院图书推介[3]的徐英瑾著《人工智能哲学十五讲》(“名家通识讲座书系”之一册!)。作者本人在序言最后介绍:“本书十五讲的内容,很多来自笔者在复旦大学开设的“人工智能哲学”(本科生课程)与“智能科学”(研究生课程)的讲义。与本书内容相关的研究,得到了教育部哲学社会科学研究重大课题攻关项目“新一代人工智能发展的自然语言理解研究”(项目号:19JZD010)的资助。本书也是该项目的前期阶段性成果的一部分。”[3] 该书目录中的“主流人工智能批判”引发了笔者的兴趣,于是去找来该书[4](以下简称“徐著”),大致浏览了前面一部分之后,就有了本篇评论。

    复旦哲学学院对徐著[4]的作者介绍为[3]:“徐英瑾,复旦大学哲学学院教授、博导。主要研究领域为人工智能哲学,知识论,认知科学哲学等。多次获得上海市哲学社会科学优秀成果奖、全国高等院校优秀人文社会科学成果奖。著有《心智、语言和机器——维特根斯坦哲学与人工智能哲学的对话》,是国内目前最全面深入的关于人工智能哲学的研究著作,于2015年获得中国首届“科史哲青年著作奖”。” 并且,徐著的序言中有两处言及“逻辑”:“按照同样的逻辑,关于人工智能的问题,哲学家当然也可以发言”,“这三条意见彼此之间在逻辑上未必自洽”[4]。于是,笔者理所当然地认为作为哲学家的徐英瑾教授应该是接受过正规逻辑学训练的。但是,很遗憾,当笔者浏览了徐著的一部分之后,不得不得出结论:该书完全不是由一位真正懂得逻辑学的学者撰写的认真严谨的学术著作,其有关逻辑学与人工智能的内容,基本上可以说是信口开河的胡说。

   

徐著谬论之一:“人工智能可不能太指望逻辑学”

    首先,上个世纪50年代人工智能领域创建初期,由麦卡锡、西蒙、纽威尔等先驱们的工作开创的、基于经典数理逻辑的知识表达和推理的方向,通常被称为人工智能领域的逻辑主义或符号主义。几十年来,关于逻辑主义之局限性的严肃的学术批评文章,发表了几乎不计其数,网上随便都可以找到。笔者看到徐[4]目录中“第二讲 人工智能可不能太指望逻辑学”这个小标题,立刻反应为大概是综述过往学术批评文章的观点,没成想完全不是那么回事[4]。

   徐著首先举了2019年埃塞俄比亚航空波音737MAX的空难例子,声称事故的发生“与出事飞机的机载AI系统有关”。笔者孤陋寡闻,只知道“飞控系统”,从未听说过什么“机载AI系统”,于是去Google和百度了一下,果然根本没有。笔者不得不猜测,“机载AI系统”这个词,是徐教授为了引出其谬论故意造出来的,因为徐著接下来给出了一个奇葩的不能再奇葩的观点:“这起惨祸与我们这里所说的符号AI到底有什么关系呢?其联系就在于:波音737MAX8的机载AI姿态调整系统,就是按照符号AI的工作原理工作的。”(!!!) 把可以说是世人皆知的波音737MAX的设计缺陷问题说成是符号AI的问题,还煞有介事地做一番解释说明,这算什么问题?笔者此处慎言。

   徐著接下来列举了“形式逻辑的“五宗罪””:“严格地说,目前在符号AI中所运用的哲学逻辑工具,均是弗雷格式的一阶谓词逻辑的变种。这种逻辑的缺陷有五个:其一是无法自我检查其所在处理的经验性命题自身的真假,其二是真值与内涵的剥离,其三是“极化思维”,其四是反心理直觉,其五是不考虑信息的储藏空间的局限问题。” 笔者不得不说,无论徐著面向的学生和读者是怎样的具体对象,徐著上述“论点”,都是既不懂逻辑学也不懂人工智能逻辑主义的、误人子弟的铁证。

   徐著没有对“形式逻辑”给出定义;徐著对“现代逻辑”给出的定义是“弗雷格(Gottlob Frege,1848-1925)的现代逻辑(一阶谓词逻辑和命题逻辑)”;对“人工智能中的逻辑”给出的定义是“所谓“人工智能中的逻辑”,含义自然是指在人工智能建模中所运用的逻辑”;对“哲学逻辑”给出的定义是“所谓“哲学逻辑”,则是指在哲学研究中所运用的逻辑”;在笔者看来,在论及“逻辑学”的所谓“人工智能哲学”著作中,这样的定义非常不规范。而徐著就是在这样的概念混乱中肆意使用这些概念及词汇展开其论点的。

    徐著还主张:“回到词项逻辑去”(不知所谓“词项逻辑”算不算“能指望的逻辑学”?😊)“在某些情况下,所谓新的技术道路,或许就是某种传统技术道路在新历史背景下的复活。而笔者所认可的传统技术道路,恰恰是早就被很多现代逻辑学家所放弃的亚里士多德式的词项逻辑路径。”徐著的理由似乎是“若让两种逻辑互较短长,亚氏词项逻辑还是棋高一着,因为亚氏逻辑的缺点(即难以现代计算机计算平台对接)要比现代逻辑的缺点(即难以与现代心理学研究对接)要更容易被克服。”关于这一观点,笔者的基本判断是徐教授应该是没有接受过计算理论(应该也算作现代经典数理逻辑之一部分)和计算机系统结构的正规训练,实际上并不懂“计算”和“计算机”是什么。

    笔者认为,徐著之“人工智能可不能太指望逻辑学”,是基本概念混乱完全没有正当逻辑前提的、没有合理论证过程而信口开河随便得出的、言过其实的结论,因此是在逻辑上完全不合理的明显谬论。

  

徐著谬论之二:“人工智能可不能太指望深度学习” 

    近些年,人工智能的热潮,基本上由两个标志性事件触发,第一件,2016年3月,英国 DeepMind 公司的围棋程序 AlphaGo 在五番棋中战胜了世界围棋冠军韩国棋手李世石[5-10];第二件,2022年11月,美国 OpenAI 公司发布的 ChatGPT 显示出异乎寻常(可以说震惊世界的)自然语言对话能力,引发了全世界的大语言模型研发及应用的热潮[11-15]。 [注;请读者注意,徐教授主持了教育部哲学社会科学研究重大课题攻关项目“新一代人工智能发展的自然语言理解研究”]  AlphaGo 和 ChatGPT 在原理和技术上都是基于深层学习 [注:笔者从来都认为,“深度学习”是对“deep learning”误译[5-10]] 的。如果这两个例子还不够,那么,DeepMind 公司开发的、同样在原理和技术上基于深层学习的 AlphaFold 能够相当准确地预测蛋白质结构,其两位主要开发者被授予今年的诺贝尔化学奖;另外,今年的诺贝尔物理学奖授予了对深层学习做出基础性贡献的两位学者;诺贝尔物理学奖和诺贝尔化学奖双双授予人工智能领域深层学习基础研究者和应用研究者[16],这应该也算得上一个标志性评价了吧?

    至少现在看来,徐著之“人工智能可不能太指望深度学习”,是已经被现实击破了的错误结论。

    徐著发表于上述第一件标志性事件之后的2021年,即便这个事件在徐教授看来不算什么人工智能领域的成就,徐教授还没有看到之后的标志性事件,那么徐著之“人工智能可不能太指望深度学习”是否以算作预测失败?让我们来看看徐著的论点[4]。

    徐著首先做了“深度学习与人类智慧之比较”,主张:“我认为深度学习并非AI研究的真正康庄大道。而这一判断又是基于如下观察的:深度学习机制的根底,乃是对人类专家某方面的数据归类能力的肤浅模仿 — 此类机制正是在这种模仿的基础上,才能在某类输入信息与某类目标信息之间建立起特定种类的映射关系。而之所以说此类技术对于人类能力的模仿是“肤浅”的,又恰恰是因为深度学习机制的运作完全是以大量人类专家提供大量优质的训练数据为逻辑前提的;与此同时,这种模仿却又不以深入理解人脑对于信息的内部加工过程为自身的理论前提,故天生就带有“知其然不知其所以然”之弊。” 徐著将其上述主张视为“深度学习机制的本质特征”,并且由此出发,“归结出其大规模运用对人类文明所可能造成的潜在威胁”。徐著“通过深度学习机制与人类智慧的比较,来看看究竟在哪些地方前者是比不上后者的”。徐著的主张是“现有的深度学习机制与人类的自然智慧之间的确存在着巨大的差距。”

    应该说,笔者本人大致上同意徐著关于“深度学习机制”的上述主张,但是,笔者却完全不能从这些主张得出徐著之“人工智能可不能太指望深度学习”的结论,而是相反,认为从徐著上述主张,逻辑上得不出该结论。问题的关键大概在于,何谓“人工智能”?如果把“人工智能”视为应用技术,那么只要能够改进现有技术使得人工智能系统具备更强能力的任何新技术都应该是可以指望的,为什么“不能太指望”?如果把“人工智能”视为由计算机系统模拟的人类智能之最高水准,那么主张某项技术“不能太指望”的逻辑合理性并非在于指出该项技术目前所能展现的能力水平而在于指出该项技术的终极本质局限性(徐著并未深入地进行理论性讨论,因为没有理论)。笔者浏览徐著的一个感觉是,作为研究人工智能哲学的哲学家,徐教授在书中并没有在定义和区分清楚作为应用技术的“人工智能”(学科/研究领域)和作为人类智能模拟的“人工智能”(人工智能系统表现出的能力)的状况下,用“人工智能”同一个词在同一语境或者不同语境下表达着不同的涵义。

    笔者认为,徐著之“人工智能可不能太指望深度学习”,是完全没有正当定义清楚概念和逻辑前提、没有合理论证过程而信口开河随便得出的、言过其实的结论,因此是在逻辑上完全不合理的明显谬论,也是已经被现实所击破的谬论。

     

    本评论文章先就笔者自认有学术背景做出恰当判断的、徐著上述两点明显谬论做了批评,徐著中的其它观点(笔者同意的或者不同意的),待笔者有时间阅读了徐著再说。但是,笔者相信,仅从笔者在本文中批评的两点谬论,多少懂得一点逻辑学和人工智能的读者,应该能够判断徐著是怎样的一本书了。

    极端一点的试问:“人工智能可不能太指望逻辑学”,“人工智能可不能太指望深度学习”,那么,人工智能应该能指望什么?难道指望不懂装懂信口胡说的“哲学家”?[权且算作笔者的逻辑谬误,微笑😊] 

    笔者本人当然也欢迎来自读者的批评。

    

参考文献

[1] 徐英瑾,“徐英瑾评《人工智能简史》︱人工智能,真的能让哲学走开吗?” 澎湃新闻,2017年12月12日。

[2] 尼克,《人工智能简史》,人民邮电出版社,2017年。

[3] 复旦大学哲学学院,图书推介:徐英瑾:《人工智能哲学十五讲》,2021年7月21日。

[4] 徐英瑾,《人工智能哲学十五讲》,北京大学出版社,2021年。

     

[5] 程京德,“Google AlphaGo 战胜职业围棋手究竟意味着什么?” 科学网博客,2016年1月30日。

[6] 程京德,“Google AlphaGo 战胜职业围棋手究竟还蕴涵着哪些有趣的问题?” 科学网博客,2016年2月1日。

[7] 程京德,“Google AlphaGo 和李世石之战:为何说李世石凶多吉少?” 科学网客,2016年2月9日。

[8] 程京德,“计算机科学角度分析 Google AlphaGo 战胜李世乭的必然性”, 科学网博客,2016年3月10日; 科技导报,34(7), pp. 70-71, 2016年7月。

[9] 程京德,“人类围棋高手现在还能够和 AlphaGo“玩”什么?” 科学网博客,2017年1月5日。

[10] 程京德,“AlphaGo 完胜人类围棋高手并不能证实什么?” 科学网博客,2017年1月17日。

[11] 程京德,“以 ChatGPT 为代表的无偿式概率式自动生成工具之滥用将给人类社会带来什么后果?”,微信公众号“数理逻辑与哲学逻辑”,科学网博客,2023年2月6日。

[12] 程京德,“ChatGPT 的原理局限性:它永远不会做什么?”,微信公众号“数理逻辑与哲学逻辑”,科学网博客,2023年2月10日。

[13] 程京德,“对关于 ChatGPT 的两篇文章之补充说明”,微信公众号“数理逻辑与哲学逻辑”,科学网博客,2023年2月17日。

[14] 程京德,“论“创造/创作/创新”及 AIGC 工具的“创造性””,微信公众号“数理逻辑与哲学逻辑”,科学网博客,2023年3月8日。

[15] 程京德,“从“数据”与“信息”的概念之差看 AIGC 工具衍生数据对人类社会的影响”,微信公众号“数理逻辑与哲学逻辑”,科学网博客,2023年4月24日。

[16] 程京德,“从诺贝尔物理学、化学奖双双颁发给人工智能学者引发的随想”,微信公众号“数理逻辑与哲学逻辑”,科学网博客,2024年10月10日。   

        

微信公众号“数理逻辑与哲学逻辑”



https://blog.sciencenet.cn/blog-2371919-1463485.html

上一篇:现代规范逻辑的创始者 - 冯·赖特
下一篇:通过基于强相关逻辑的正向推理自动生成海量合理经验定理 - 对LLM预训练数据枯竭问题的一个解决方案
收藏 IP: 120.75.245.*| 热度|

1 雷蕴奇

该博文允许注册用户评论 请点击登录 评论 (1 个评论)

数据加载中...
扫一扫,分享此博文

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-12-26 21:48

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部