lijiankou的个人博客分享 http://blog.sciencenet.cn/u/lijiankou

博文

贝叶斯模型比较

已有 9623 次阅读 2013-7-23 23:56 |个人分类:机器学习|系统分类:科研笔记| 模型

过拟合是机器学习中常见的问题之一,指的是一个模型由于过度复杂造成在训练集中表现良好而在测试集中表现很差的现象,通常是由于参数过多导致数据相对变小造成的。这是因为在采用极大似然估计的方式进行参数的点估计的时候,复杂的模型总是拟合出更好的结果。但是由于模型过于复杂,它的泛化能力并不一定好。频率派通常采用加一个正规项和交叉验证的方式处理过拟合问题。与此相对的贝叶斯学派用贝叶斯的方法给出一种自然的方法进行模型选择, 找到一个复杂度适中的模型,同时避免了过拟合和欠拟合问题,不需要预先留出一部分数据进行验证。

这里我们所说的模型是指给定数据集的概率分布,用M表示。一个模型的参数越多认为越复杂,模型比较指从不同参数的模型中选出最合适的那一个。贝叶斯模型比较成功的地方在于不是对参数进行点估计,而是边缘化模型中的参数(求和或者积分)从而直接对不同复杂度的模型进行直接比较。复杂的模型虽然可以更好的拟合出给定数据集,但是也为此付出了代价,因此最优的模型是二者的一个折衷,既保证一定程度的高拟合,又要保证不能惩罚的太多,下面对其原理进行分析。

用D表示训练集, $M_i$ 表示参数个数为i的模型,现在我们需要比较 $p(M_i)$ 和 $p(M_j)$ 的大小,用贝叶斯方法计算后验概率 $p(M_i|D)$ ,如下:

$p(M_i|D) = \frac{p(D|M_i)p(M_i)}{p(D)}$

对于不同的模型 $M_i$ ,我们假设其先验概率相等,因此后验概率的比较,取决于 $p(D|M_i)$ ,称为边缘似然函数或者模型证据。边缘似然函数可以通过边缘化似然函数的参数项得到:

$p(D|M_i) = \int p(w|M_i)p(D|w, M_i)dw$

现在我们分析并非复杂模型的边缘似然函数也一定高。我们作如下假设:

1. 参数的先验概率是均匀的,宽度是 $\bigtriangleup w_{prior}$ ,那么我们有 $p(w) = 1/\bigtriangleup w_{prior}$ ;

2. 参数的后验概率分布在 $\bigtriangleup w_{post}$ 宽度范围内的概率密度是 $w_{map}$ ;

得到如下结果:

$p(D) = \int P(D|w)p(w)dw \approx p(D|w_{map})\frac{\bigtriangleup w_{post}}{\bigtriangleup w_{prior}}$

取对数以后得到如下结果:

$lnp(D) \approx lnp(D|w_{map}) + ln(\frac{\bigtriangleup w_{post}}{\bigtriangleup w_{prior}})$

上式中的第一项表示了用后验概率对模型的拟合程度,第二项是一个惩罚项。因为我们总有 $\bigtriangleup w_{post} < \bigtriangleup w_{prior}$ ,所以第二项是一个负数,当我们得到的数据越多,后验概率确定,第二项越小。上面考虑的是一个参数的情况,如果有M个参数,那么第二项要乘以一个M。可以看出,虽然模型复杂度的增加提高了第一项,但是也降低了第二项。因此我们需要找到一个平衡点,这个平衡点就是复杂度适中的模型。

这个过程可以进一步通过下图表示:

 该图来自prml

因为简单的模型只能产生简单的数据,复杂的模型参数多,不仅可以产生简单的数据,同时可以产生复杂的数据。当给定的一个数据集后,简单的模型由于表现能力差,使用边缘似然函数比较小,同时由于过于复杂的模型可以产生更多的复杂数据,那么它产生该特定数据的概率就会相对变小,因此它的边缘似然函数同样不大。只有复杂度适中的模型的边缘似然函数最大。

最后指出,按照贝叶斯模型比较的方法,通常会获得正确的模型。假设一个数据是由 $M_1" orgsrc="http://latex.codecogs.com/gif.latex?M_1$ 产生的,我们计算贝叶斯因子的期望值,其中贝叶斯因子的定义为 $f(M_1,M_2) = p(D|M_1)/p(D|M_2)$ ,

$E(f(M_1, M_2)) = \int p(D|M_1)ln\frac{p(D|M_1)}{P(D|M_2)}dD$

上面正是相对熵的定义,相对熵是恒大于等0的,因此贝叶斯因子是一个非负数,从平均来看,用贝叶斯的方法进行模型选择会把真正产生该数据的模型选择出来。


参数资料:

1. pattern recognition and machine learning




https://blog.sciencenet.cn/blog-520608-710733.html

上一篇:广义线性模型
下一篇:线性分类器
收藏 IP: 124.16.137.*| 热度|

1 陈学雷

该博文允许注册用户评论 请点击登录 评论 (3 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-7-17 16:36

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部