自从1995年Vapnik等人提出一种机器学习的新方法支持向量机(SVM)之后,支持向量机成为继人工神经网络之后又一研究热点,国内外研究都很多。支持向量机方法是建立在统计学习理论的VC维理论和结构风险最小原理基础上的,根据有限的样本信息在模型的复杂性(即对特定训练样本的学习精度,Accuracy)和学习能力(即无错误地识别任意样本的能力)之间寻求最佳折衷,以期获得最好的推广能力(Generalizatin Ability)。
SVM一种新的非常有发展前景的分类识别技术。SVM是建立在统计学习理论中结构风险最小化原理基础上,根据有限的样本信息,在模型的复杂性(即对特定训练样本的学习精度)和学习能力(即无错误地识别样本的能力)之间寻求最佳折衷,以期获得最好的推广能力。SVM克服了神经网络和传统分类器的过学习、局部极值点和维数灾难等诸多缺点,具备较强的泛化能力,已成为备受关注的研究热点。
核函数是基于支撑矢量机解决原样本空间中线性不可分问题时引入的一种非线性变换。其基本思想就是通过核变换,使得样本在新的高维特征空间中线性可分,然后在高维特征空间中来实现最优分类面的求解。核函数及核方法的研究是SVM 理论与方法研究中极为重要的一个分支。
构造一个具有良好性能的支撑矢量机,模型选择是关键。传统的作法包括两个相对独立的步骤,首先凭经验选定核函数的类型,其次根据一定的准则确定核函数的参数。目前,关于核函数的研究有很多,但是,大多数的方法是在特定的应用领域内,通过实验分析来解决,至今没有一个能够指导SVM选择最优核的理论和方法。核函数的选择与构造仍是一个亟待解决的难题。