taoyingyong2014的个人博客分享 http://blog.sciencenet.cn/u/taoyingyong2014

博文

深度神经网络与蒸汽机:两次工业革命时代的比较

已有 1283 次阅读 2024-10-12 11:18 |系统分类:科研笔记

题语:只不过人工智能还差一位“卡诺”

 

2024年诺贝尔物理奖给的是Hopfield网络和玻尔兹曼机,没有给感知机和反向传播算法,因为前两者是物理,后两者是人工智能。

实际上,人工智能目前最成功的算法是反向传播算法,2006年深度学习的开启的确是靠的(受限)玻尔兹曼机,这没错,但是它很快就被基于反向传播算法的卷积神经网络和循环神经网络所替代,从此之后玻尔兹曼机便被打入了深度学习应用领域的“冷宫”!是2024年的诺贝尔物理奖将其重新带回了大家的视野。实际上Hinton本人也没有继续开发玻尔兹曼机了,可见《纽约时报》这两天对他的采访,他也不清楚玻尔兹曼机背后深刻的物理原理,并认为AI不再需要玻尔兹曼机,所以他对自己这次得诺贝尔物理学奖感到非常意外。采访稿已在文后附上。

这也是大家质疑他得诺贝尔物理学奖的关键。

目前,基于反向传播算法的卷积神经网络和循环神经网络非常成功,但是这些网络的发明人都不能得诺贝尔物理奖。原因在于,反向传播这种算法,本质上是一个人工调参的游戏,这使得深度神经网络像是一个“黑箱”,大家都知道好用,但是不明白为什么。

物理是什么?物之道理。找不到其中的道理,怎么能给诺贝尔物理奖?

玻尔兹曼机则不同,2018年我因为研究生物群体智能[1],第一次接触到玻尔兹曼机,然后就被它所吸引。假如大自然要创造大脑的话,大脑也一定要满足“物理法则”,而玻尔兹曼机就是这样一种模型。但是Hinton并没有从第一性原理导出玻尔兹曼机,他只是借用了玻尔兹曼分布和配分函数做形式推导。我2018年的时候则从统计物理第一性原则来推导出“完备版本的玻尔兹曼机”[2]。这种完备版本的玻尔兹曼机自动满足:McCulloch-Pitts 学习规则、无监督学习、自我激励,大脑理论的最小自由能原理[3]。

简单来说,人工智能最近的大突破,就好比20世纪初的量子革命,大家看到了现象,但是不懂其中的道理。而且大家从来没有把深度神经网络这个东西与第一次工业革命的蒸汽机做类比,蒸汽机的道理联系到热力学,卡诺发明“卡诺循环”将其中的道理讲明白,并揭示出“熵”这个东西。诺贝尔物理学奖奖给卡诺循环,我相信在现在这个时代,没有人有异议。深度神经网络的运行又何尝不是另一种“热力学系统”,只不过这种热力学的框架很可能在玻尔兹曼机那里。我研究玻尔兹曼机的出发点就是热力学——把深度神经网络的运行看作一个热力学系统[2]

量子现象出来之后,有了薛定谔方程和狄拉克方程,道理就清楚了。人工智能现象背后的道理大家还不清楚,找到道理了,就是物理了。只不过人工智能还差一位“卡诺”

在当今时代,大家都不会怀疑热力学属于物理学的范畴,它描述了蒸汽机运行的原理。人类历史上的第一台蒸汽机是英国工程师托马斯·纽科门发明,那时候热力学还未被建立起来。Hinton发明深度神经网络,其实更像是这样一个角色,或者也许是瓦特那样的角色。

蒸汽机的发明人托马斯·纽科门和瓦特得诺贝尔物理学奖大家有异议吗?可能同样会有质疑。毕竟他们没有发现热力学。

所以,反而觉得这次的诺贝尔物理学奖在未来会被证明极有远见,因为玻尔兹曼机隐藏着大自然创造智能的最大奥秘。与其他的人工神经网络不同,玻尔兹曼机可以基于物理的第一性原理导出。

 

 

 

参考文献

[1]. Yong Tao. Swarm intelligence in humans: A perspective of emergent evolution. Physica A 502 (2018) 436-446

[2]. Yong Tao, Self-referential Boltzmann machine. Physica A 545 (2020) 123775

[3]. Yong Tao, Didier Sornette, and Li Lin, Emerging social brain: a collective self-motivated Boltzmann machine. Chaos, Solitons & Fractals 143 (2021) 110543

 

 

附:

《纽约时报》对2024年诺贝尔奖得主辛顿(Hinton)博士的采访。

 

《纽约时报》:当您听到今天早上的新闻时,您的反应是什么?

 

辛顿:我非常震惊,我从来没有想到过这一点

 

《纽约时报》:神经网络是计算机技术,这与物理学有何关系?

 

辛顿:霍普菲尔德网络及其进一步发展的玻尔兹曼机是基于物理学的。霍普菲尔德网络使用能量函数,玻尔兹曼机使用统计物理学的思想。因此,神经网络发展的那个阶段确实在很大程度上依赖于物理学的想法但用于构建今天使用的AI模型的实际上是一种不同的技术,称为反向传播(Back Propagation),这与物理学关系不大

 

《纽约时报》:玻尔兹曼机和反向传播之间有什么关系?

 

辛顿:现在没有太多联系,它们是我们如何让神经网络运行的两种替代理论。早期,我使用玻尔兹曼机“预训练”反向传播网络来设法将它们结合起来。但现在人们不这样做了

 

《纽约时报》:预训练是什么意思?您能用读者能够理解的语言进行解释吗?

 

辛顿:我想起了物理学家理查德·费曼获得诺贝尔奖时所说的话。一位记者问他:“费曼教授,您能用几分钟解释一下您为何获得诺贝尔奖吗?”费曼回答道:“听着,伙计,如果我能在几分钟内解释清楚,那就不值得获得诺贝尔奖了。”

 

《纽约时报》:可以肯定地说,玻尔兹曼机器对于AI研究来说是一条死胡同,研究将往什么方向发展?

 

辛顿:我认为这个想法就像一种酶,酶可以帮助人跨越障碍——即使它不是最终解决方案的一部分。玻尔兹曼机就像一种酶,它让我们克服了“如何训练深度神经网络?”的障碍。这使得训练他们变得更容易。一旦我们学会了如何做到这一点,我们就不再需要玻尔兹曼机了

 

采访稿来源:

智东西



https://blog.sciencenet.cn/blog-1253715-1454962.html

上一篇:2024年诺贝尔物理学奖:理解“智能”的物理学
下一篇:指数函数分布与机会公平:基于分布的无记忆性
收藏 IP: 183.228.77.*| 热度|

1 王涛

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-12-31 00:59

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部