||
几年前我在这里写过一篇博客,讲的是如何从比赛结果倒推比赛规则。这是一个典型的从数据当中揭示规律的问题。现在学了一些新的东西,对之前这个问题又有了新的认识。
主要是学到了“人工神经网络(artificial neural network)” 这个东西,了解到它可以“重现”大多数的函数。当然,多数是连续函数。那么它对不连续的函数有多大的重现力呢?我就做了一个简单的模型来试验一下,让一个1层或者2层神经元的网络去试着解决我在那篇博客里提到的问题。其实从比赛结果倒推规则,就是从多个已知的(x,y)数据开始,去试图破解这个y=f(x)到底应该怎么写。在这个问题里,“真实”的f(x)是我们所知道的,是一个不连续函数,有多于三层的条件判断,在我看来,复杂度适中。
有兴趣的朋友可以来看一下我在Github上分享的这个试验。部分代码没有上传,因为借用了某网络课程的作业当中的一部分。感兴趣的话可以给我邮箱,我发给你。
人工神经网络这个东西目前还不被很多学者接受,因为首先它是一个“黑箱中的超级黑箱”,很难解释它的原理。即使最终效果很好,也不像线性回归那样,很难解释里面的每一个系数能对应什么东西或者意义。也正因如此,它产生过度拟合(over-fitting)的可能性也更加被人怀疑。
对我来说,这个东西对我的世界观是一次全新的改造。构建一个复杂的,我们不理解的东西,就能让它帮我们去破解其它的复杂的、不可理解的问题吗?这本身在我看来太不可信。
但是我又越来越相信它。一方面,它在应用方面取得的进展颇为丰富,像图片识别、汽车自动驾驶技术等等,已经越来越可信了。另一方面,我本人也在不停地思考人工神经网络与我本人的神经网络的相似性,以及那些目前看来是过度拟合,但却似乎揭示了某种真相的冰山一角的东西(请搜索“神经网络与艺术创作”)。现在我已经基本相信了这个东西的力量,并且决心在这个方面做更多的研究。
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-11-23 01:33
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社