程京德(Jingde Cheng)的博 ...分享 http://blog.sciencenet.cn/u/JingdeCheng 相关逻辑,软件工程,知识工程,信息安全性工程;自强不息,厚德载物。

博文

人工智能应用主体问题实例 -- 究竟是谁预测了蛋白质结构? 精选

已有 2973 次阅读 2023-10-29 08:05 |个人分类:人工智能|系统分类:科研笔记

[敬请读者注意] 本人保留本文的全部著作权利。如果哪位读者使用本文所描述内容,请务必如实引用并明白注明本文出处。如果本人发现任何人擅自使用本文任何部分内容而不明白注明出处,恕本人在网上广泛公布侵权者姓名。敬请各位读者注意,谢谢!

 

人工智能应用主体问题实例 -- 究竟是谁预测了蛋白质结构?

程京德

 

引言:人工智能应用中的行为主体问题

“人工智能应用中的行为主体问题”是笔者在考查人工智能终究能否超越人类智能时发现的、似乎在人工智能领域被学者们常年所忽视的一个根本性哲学问题:在一个人工智能系统的成功应用中,行为主体究竟是谁?[1] 

笔者是在自动定理发现研究工作中最初意识到这个问题的。

美国数学家、自动推理领域专家 Larry Wos 在1988年提出了33个自动推理领域的未解决重要问题,其中第31个问题就是自动定理发现(Automated Theorem Finding, ATF)问题:“What properties can be identified to permit an automated reasoning program to find new and interesting theorems, as opposed to proving conjectured theorems?”[2]。ATF 问题被提出30多年来,至今仍未完全解决。ATF 问题有几个基本要求:(1)要求“发现”而不是“证明”定理,(2)要求发现“新”并且“有趣”的定理(因此,形式地定义清楚“新”和“有趣”,并且给出评价标准就是必要的),(3)要求识别出那些“特性”使得能够让自动推理程序发现定理。正是这几个要求中包含的一般性,使得该问题成为一个难题;然而也正是因为这些一般性,使得该问题之解决意义重大,应用广泛。笔者在1994年就提出,从 ATF 问题所要求的一般性来说,解决 ATF 问题必须依赖于合适的基础逻辑系统,经典数理逻辑及其所有经典保存扩张都不可能被用做解决 ATF 问题的基础逻辑系统,唯一有希望的候补逻辑系统应该是强相关逻辑 [2]。

但是,在解决 ATF 问题时显然有一个绕不过去的问题:无论一个自动推理程序以怎样的机制推导出一些结果作为“新”而“有趣”的定理的候补,是谁作为行为主体,怎样地制定什么样的评价标准,使得自动推理程序最终根据这些评价标准能够判定哪些定理候补真正是“新”而“有趣”的定理?如果这个行为主体是自动推理程序自身(姑且假设可能),那么就是完完全全的“自动定理发现”;如果这个行为主体是人类科学家,那么就是“人类导引的自动定理发现”;如果不是由自动推理程序根据评价标准判定,而是人类科学家作为行为主体从众多定理候补中挑选出“新”而“有趣”的定理,那么就只能说是“计算机系统辅助人类科学家发现定理”了。

为了不引起误解,下面先来复习一些概念定义[1]:

“解决问题”一词用于指称某个(某类)行为主体对于给定的某个(某种)问题找到解决该问题的方法并且用该方法实际解决了该问题,问题是否得到正确解决的判断是由该行为主体自身做出的。

“人工智能系统”一词用于指称能够执行为解决某个(某种)特定问题由人类设定了初始应用程序并且在完成任务时呈现出一定类似智能行为特征的计算机系统。这里,“人工”的限定意义在于该计算机系统执行的初始应用程序是由人类设定的,尽管在完成任务的过程中该系统也可能会执行由其自身自动生成的程序指令。

“评价标准”一词用于指称在评价事物时用到的衡量准则,可以是定性的,被称为“定性评价标准”,也可以是定量的,被称为“定量评价标准”;实施评价的行为主体必须能够依据该准则实际可行地对被评价事物做出评价。

“评价事物”一词用于指称实施评价的行为主体依据确切的评价标准对被评价事物做出定性的或者定量的评价赋值。

关于“计算”中评价标准的建立及其使用的行为主体的说明:因为任何计算程序对于计算过程(运行中的计算机系统)何时获得问题所要求正确结果之评价标准都是已经包含在人类发明并且预先给与计算机系统执行的算法当中的,运行中的计算机系统仅仅在按照程序指令执行计算过程时不断检查计算结果是否符合正确结果之评价标准而决定计算过程的终结,所以,对于计算问题解决与否的判断,不能说是完全由计算机系统作为行为主体自身完成的,而是基于人类给与的算法中给定的评价标准由计算机系统完成的。

关于人工智能系统“解决”问题的说明:我们已经定义了“解决问题”一词用于指称某个(某类)行为主体对于给定的某个(某种)问题找到解决该问题的方法并且用该方法实际解决了该问题,问题是否得到解决的判断是由该行为主体自身做出的。我们还定义了“人工智能系统”一词用于指称能够执行为解决某个(某种)特定问题由人类设定了初始应用程序并且在完成任务时呈现出一定类似智能行为特征的计算机系统,“人工”的限定意义在于该计算机系统执行的初始应用程序是由人类设定的。所以,任何由人工智能系统“解决”的问题,对于问题解决与否的判断,不能说是完全由人工智能系统作为行为主体自身完成的,而是依据人类设定的初始应用程序由人工智能系统完成的。

 

实例:究竟是谁预测了蛋白质结构?

2023年度的加拿大盖德纳国际奖以及美国拉斯克奖都颁给了 DeepMind 的 Demis Hassabis 和 John Jumper,两位计算机科学家,以表彰他们开发出蛋白质结构预测工具 AlphaFold [3]。几乎所有的报道都说,AlphaFold 解决了“蛋白质结构预测问题”,可以预测出人类基因组编码和20种生物的几乎所有已知蛋白质结构,给出了关于蛋白质结构最准确最完整的图像。所以,按照对上述自然语言陈述的通常理解,似乎应该是 AlphaFold 作为行为主体预测出了蛋白质结构。 

笔者(完全不懂生物学)首先要问的问题是:蛋白质结构预测问题是否类似于围棋博弈问题,问题本身设定以及游戏规则极其简单,但是需要探索的解空间极其庞大?换言之,蛋白质结构预测问题本身是否是一个仅需要初级生物学知识就可以描述表达清楚的问题,问题难在要探索的解空间极其庞大?对这个问题的答案似乎是:不是。人类并不知道蛋白质结构的简单形成规则。蛋白质结构是由氨基酸残基之间的复杂相互作用和键合决定的,在不同氨基酸序列下展现出巨大多样性,似乎难于发现简单形成规则。这应该就意味着,富有专业知识和经验的生物学家的参与是必要的。笔者观察到一个有趣现象是,论文 [3] 的共著者中有唯一的一位不隶属于 DeepMind,David T Jones,他是著名的生物医学实验室 The Francis Crike Institute 的生物信息学家。

按照 DeepMind 的介绍,AlphaFold 的几个模块都使用了深层学习技术,但是似乎没有关于在哪些地方有生物学家的参与,参与到什么程度的介绍。

如果 AlphaFold 所使用的对预测结果进行判定的判定标准并非完全由其自身通过机器学习手段自主归纳出来的,而是在人类生物学家的参与(比如说,引导方向并且给与反馈)下由计算机科学家植入的,那么 AlphaFold 就不能被认为是预测蛋白质工作的唯一行为主体,AlphaFold 的预测工作就不是“自动预测”而是“由人类导引的自动预测”。即便 AlphaFold 所使用的判定标准完全是由其自身通过机器学习手段自主归纳出来的,那么这种归纳机制(算法)也应该是由计算机科学家植入的。所以,从本质上说,令蛋白质结构预测工作成功的真正的行为主体应该还是人类(无论是生物学家还是计算机科学家还是两者兼而有之)而非 AlphaFold 自身,只不过人类聪明地构造并运用 AlphaFold 完成了仅凭人类自身很难完成的工作而已。这与当年 AlphaGo 战胜人类围棋世界冠军在本质上相同 [4-9]。

(2023年10月28日记)

笔者认为,和 ATF 这种具体问题相比,如果不在人类智能和人工智能之间就行为主体问题划清界限,那么说人工智能迟早能够或者永不能够超越人类智能,都是“胡扯”。[幽默微笑]

(2023年10月29日追记)

 

参考文献

[1] 程京德,“人工智能永无可能超越人类智能(初稿)”,微信公众号“数理逻辑与哲学逻辑”,科学网博客,2023年5月1日。

[2] 程京德,“强相关逻辑及其应用(上,中,下)”,微信公众号“数理逻辑与哲学逻辑”,科学网博客,2023年6月18日,2023年8月8日,2023年8月12日。

[3] A. W. Senior et al., “Improved protein structure prediction using potentials from deep learning,” Vol. 577, pp. 706-710, Nature, 15 January 2020. 

[4] 程京德,“Google AlphaGo 战胜职业围棋手究竟意味着什么?”,科学网博客,2016年1月30日。

[5] 程京德,“Google AlphaGo 战胜职业围棋手究竟还蕴涵着哪些有趣的问题?”,科学网博客,2016年2月1日。

[6] 程京德,“Google AlphaGo 和李世石之战:为何说李世石凶多吉少?”,科学网博客,2016年2月9日。

[7] 程京德,“计算机科学角度分析 Google AlphaGo 战胜李世石的必然性”,科技导报,Vol. 34,pp. 70-71, 2016年。

[8] 程京德,“人类围棋高手现在还能够和 AlphaGo “玩”什么?”,科学网博客,2017年1月5日。

[9] 程京德,“AlphaGo 完胜人类围棋高手并不能证实什么”,科学网博客,2017年1月17日。


 

微信公众号“数理逻辑与哲学逻辑”






https://blog.sciencenet.cn/blog-2371919-1407615.html

上一篇:为什么说逻辑推理能力是人类智能中最基本的能力?
下一篇:人工智能应用中的行为主体问题实例 -- Google DeepMind 关于AGI模型分类框架中的问题
收藏 IP: 223.104.63.*| 热度|

0

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...
扫一扫,分享此博文

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-2-22 18:36

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部