最近终于花了些时间把自己提出的几个重要算法整理公布在了网上,拖了很久的任务总算完成了。下面对这几个算法简单介绍一下,如果有感兴趣的朋友,欢迎提出意见、建议,我希望通过交流对自己做的东西有个更全面的认识。还有一点就是我的中文翻译可能有些不地道,如果您有其他译名建议,也请多指教。
到目前为止,我总共公布了四个算法,其中三个是关于我的主要研究方向-多线性子空间学习,另一个是关于一个经典EEG分类算法的改进。
1. MPCA:多线性主成分分析,Multilinear Principal Component Analysis
这个是我第一个公布的算法,很多人用过,应该是问题比较少,比较稳定。MPCA是PCA到多维的一个延伸。PCA是投影矢量到矢量,而MPCA是投影张量(Tensor)到张量,投影的结构相对简单,另外运算在较低维数空间进行,处理高维数据时有低运算量的优势。南京理工大学的杨健教授是最早做这方面研究工作的学者之一。
2. UMPCA:非相关多线性主成分分析,Uncorrelated Multilinear Principal Component Analysis
这个是MPCA的同类算法,但是不同的是,MPCA是投影张量到张量,而UMPCA是投影张量直接到矢量。PCA得到的特征是非相关的(Uncorrelated),而MPCA得到的特征则没有这个特性。我提出的UMPCA则可以得到非相关的特征。作为多线性子空间学习里的一员,UMPCA运算也在较低维数空间进行,投影的结果相对简单,不过收敛性没有MPCA好。
3. UMLDA: 非相关多线性鉴别分析, Uncorrelated Multilinear Discriminant Analysis
这个算法是LDA到多维的一个延伸,因为是张量到矢量的投影并且得到非相关特征,所以算法和UMPCA接近。单用一个UMLDA通常能得到的特征较少,所以我提出了聚合(Aggregate)几个不同初始化UMLDA的方法来解决它的这个局限。类似的,UMLDA运算也在较低维数空间,投影的结果相对简单,收敛性和UMPCA类似,没有MPCA好。
4. R-CSP:正则化公共空间模式, Regularized Common Spatial Pattern
这个算法是把JH Friedman的经典算法RDA和EEG里的经典算法CSP结合,并且应用了我在UMLDA里提出的聚合(Aggregation)的方法解决选择正则化参数的问题,另外也借鉴了师姐做的Generic Learning,或者说现在流行的Transfer Learning的方法。
https://blog.sciencenet.cn/blog-599967-554261.html
上一篇:
[转载兼评论】李彦宏:百度为什么不建研究院?下一篇:
转李开复微博三则:关键能力,建立好人缘,及可持续技能