chzhuang的个人博客分享 http://blog.sciencenet.cn/u/chzhuang

博文

庄朝晖:人工智能的皇冠问题——人工创新

已有 2397 次阅读 2021-3-29 08:56 |系统分类:科研笔记

一直以来人工智能的研究目标是通过图灵测试,图灵测试的目标是能够机器模拟普通人对话方面的智能。这个目标已经基本接近完成,现在有必要提出更高远的目标,也就是让机器人模拟科学家的智能,进行人工创新(Artificial Innovation),设计“人工牛顿”,“人工爱因斯坦”。这个目标可以称为人工智能的皇冠问题。

爱因斯坦.jpg

现有的人工智能领域,跟这个问题比较相关的是非单调性研究。非单调性,指的是旧有知识可能会被挑战甚至推翻,会被新的更准确的知识所取代。例如在科学创新和侦破案件中,就体现了典型的非单调特征。我认为,一个完整的非单调研究,应该要能够刻画科学上的理论创新和侦破中的非单调模式。例如黑体辐射问题,直接引出了普朗克的量子论。这里黑体幅射是如何挑战旧有的理论?机器能否像人类一样创造出量子论?这就涉及到人工智能最核心的问题之一——人工创新。

1、非单调性根源自知识基础的非单调性

一个完整的知识系统包括知识库和推理机制,知识库相当是前提起点和内容,逻辑推理机制相当是推演步骤和方法。现有的非单调研究,主要集中于各种非单调性推理机制的研究。我认为非单调性,并不是根源自推理方法的非单调性,而是根源自知识库的非单调性。例如,量子理论取代非量子理论,并不在于使用了不同的推理方法(都是使用溯因推理方法),而是创造和使用了新的假说和理论。再比如在侦破案件中,也经常会有以前接受的证据后来被推翻的状况,这时候也会更新或者推翻以前的结论。这里作为非单调性根源的假说和证据,都是知识基础。但是,现有的知识库并没有区分知识的种类和来源,从而不能有效地进行更新。

所以,我认为非单调问题并不是根源自推理机制,而主要根源自知识基础的非单调性。现有的非单调研究都集中于非单调逻辑推理的研究,我认为是走了错误的方向。非单调推理研究几十年了,始终没有大的进展。我认为非单调性的研究,应该主要是对于知识基础的重新分析和研究。知识是如何获得的?知识有没有不同的类别?知识的理由是什么?知识被挑战或推翻后如何更新?

2、对于知识基础的重新分析

对于知识基础的重新分析,就涉及到哲学上的认识论,所以我在认识论层面先对知识进行重新分析,梳理西方认识论对于知识的观点,发现西方知识论经常要么走绝对主义(知识是永真的)要么走相对主义(知识与一般信念一样),这种思维就影响了人工智能的研究。传统知识库的设计中带着上帝的视角,做了这样的预设:知识一经被接受为真就会永远为真。在传统的知识库中,并不保存知识之所以为真的理由。这也导致当旧有的知识被挑战或击败时,我们无法确认问题发生的位置来进行准确的更正和更新。

所以,我对于知识进行了重新分析[1],在2014年的国际分析哲学会议发表了A Re-analysis of Knowledge[2]。这篇主要是哲学层面的研究,认为知识应当进行分类研究(六类知识:事实,定义,逻辑真理,演绎所得,归纳所得,溯因所得),不同类别的知识有不同的理由(/依据)。这些挑战西方论识论的哲学成果,在中国分析哲学界是有震撼影响的。

举个例子,“所有的鸟都会飞”(命题1)和“所有的鸟都是动物”(命题2)这两个命题,虽然结构上一样,但是依据是很不相同的。命题1是来自归纳,命题2是来自定义(/约定)。所以,我提出了应该区分这两种“所有”,使用不同的逻辑符号来表示。这是弗雷格以来,对于“所有”分析的一个补充。

例如,“所有的鸟都会飞”,这是归纳所得,当被事实质疑的时候,是可以被击败和更新的。“所有的鸟都是动物”,这是定义,如果被事实质疑的时候,首先应该考虑是不是事实录入错误了。这两者结构上相同,但是本质上是很不相同的。所以,我提出使用不同的符号来表示这两种“所有”,就好像自然语言的“或者”,符号上有析取符和异或符两种表示。

科学上的基本假设和侦破中的假设,则主要是来自溯因推理所得,当面临事实(包括判决性实验)质疑的时候,这时候可以使用算法来自动抉择一个更合理的假设。所以,我提出这种方法就是来自前人的科研实践,也符合生活中的非单调实践。

3、知识应该附带上它们的理由

在计算机层面,我做了知识结构的改变。知识是因为它们的理由而成立的,而且不同种类的知识,他们的依据和被挑战的方式是很不相同的。所以,知识库里面每条知识应该附带上它们之所以被认为成立的理由及推理方式。

这个观点的基础就是逻辑学的第四大定律:莱布尼兹的充分理由律。我们之所以接受某个知识,是因为接受了这个知识的理由。日常生活中,如果两个知识是冲突的或矛盾的,这时候我们是检查这两个知识的理由,来评判谁更加准确。

现有的知识库,每条知识直接列出来,没有附带理由。这其实已经违反了充分理由律,知识就被误认为是无条件成立的,从而被误当成不可置疑的公理。这样的知识库设计,知识要么就是被认为100%正确,要么就是认为一错全错不容修正。

中文成果“一个带有依赖关系的知识库”发表在厦大学报[3],英文成果也发表在2014年知识发现的国际会议上并做了主题发言[4]。

现在使用的知识表示,还是单调逻辑时代的产物,本来就没有考虑知识需要更新的时候怎么办,所以每条知识都没有保存它们的类别和理由。所以,为了适应非单调推理,知识表示也应该提出新的表示方法。所以,我就根据哲学上的知识论,整理和提出了六种不同种类的知识。这六类知识有不同的类别,在被质疑,反驳或者证伪的时候,也有不同的更新或改变方法。现在所提出的六类知识是:事实,定义,逻辑真理,演绎所得,归纳所得,溯因所得。

4、小结

我认为,非单调性的问题不在逻辑推理,而在知识基础。知识库应当进行重新的设计,比如我提出的知识分类,并且每条知识的表示要附带理由和所用推理方式。这样人力与计算力的结合,才有可能更全面解决非单调推理问题,甚至有可能做人工创新(Artificial Creation)。举个例子,比如法庭上双方有不同意见,这时候就是列出意见的理由,然后法官根据理由的支撑程度,再来判断哪个意见更有道理。从知识库的结构革新,也才有可能进一步推进莱布尼兹的梦想,未来才有可能出现机器人科学家。

在逻辑学上,也做了一个小小贡献,区分了两种“所有”。两种“所有”的区分有可能会进入未来的逻辑教科书。就好像自然语言的“或者”,也有两种意思和符号“析取”和“异或”。

这种方法需要对于现有的知识进行重新的分类和表示,所以是一个很大的知识工程。当然,实践中,也可以先选择一个较小的领域开始研究,比如侦破推理或者法律辩论。我认为,神经网络因为深度学习的出现而重新兴盛起来。知识工程也可能因为知识表示的新方法,而重新兴盛起来。当然,这需要领域专家的人力进行知识的重新分类和表示,也需要充分利用计算机的巨大计算力。

上面是抛砖引玉,也希望有专家能够接上去研究。我认为,这个领域是一片科研的蓝海,也是中国人工智能实现弯道超车的一种可能。


参考文献:

1、庄朝晖,关于何为知识的思考,“科学视野里的佛教”研讨会,山西太原,中国佛教协会主办,2008年10月(编入《佛教.文化.科学.慈善》,中华宗教文化交流协会编,上海辞书出版社,ISBN978-7-5326-2823-0,P328-P337)

2、Chaohui Zhuang, A Re-analysis of Knowledge, Beijing International Conference on Analytic Philosophy, Beijing, China, Nov. 15, 2014.

3、庄朝晖,一个带有依赖关系的知识库,《厦门大学学报(自然科学版)》,第50卷第6期,2011年11月,989-993.

4、Chaohui Zhuang, a knowledge base with dependencies, Proceedings of the 2014 11th International Conference on Fuzzy Systems and Knowledge Discovery, Xiamen, China, Aug., 2014.




https://blog.sciencenet.cn/blog-2598357-1279090.html

上一篇:庄朝晖:哲学——回归爱智慧本怀
下一篇:倡议为袁隆平老先生举行国葬
收藏 IP: 110.87.29.*| 热度|

0

该博文允许注册用户评论 请点击登录 评论 (1 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-7-18 16:07

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部