吕海平的学术博客分享 http://blog.sciencenet.cn/u/hplu 个人主页: http://www.dcs.shef.ac.uk/~haiping

博文

分享自己的几个算法: 多线性子空间学习+ EEG分类

已有 10125 次阅读 2012-4-1 16:43 |个人分类:科研笔记|系统分类:科研笔记| 张量, 算法, EEG, 子空间学习

最近终于花了些时间把自己提出的几个重要算法整理公布在了网上,拖了很久的任务总算完成了。下面对这几个算法简单介绍一下,如果有感兴趣的朋友,欢迎提出意见建议,我希望通过交流对自己做的东西有个更全面的认识。还有一点就是我的中文翻译可能有些不地道,如果您有其他译名建议,也请多指教。

到目前为止,我总共公布了四个算法,其中三个是关于我的主要研究方向-多线性子空间学习,另一个是关于一个经典EEG分类算法的改进。

1. MPCA:多线性主成分分析,Multilinear Principal Component Analysis

这个是我第一个公布的算法,很多人用过,应该是问题比较少,比较稳定。MPCA是PCA到多维的一个延伸。PCA是投影矢量到矢量,而MPCA是投影张量(Tensor)到张量,投影的结构相对简单,另外运算在较低维数空间进行,处理高维数据时有低运算量的优势。南京理工大学的杨健教授是最早做这方面研究工作的学者之一。

2. UMPCA:非相关多线性主成分分析,Uncorrelated Multilinear Principal Component Analysis

这个是MPCA的同类算法,但是不同的是,MPCA是投影张量到张量,而UMPCA是投影张量直接到矢量。PCA得到的特征是非相关的(Uncorrelated),而MPCA得到的特征则没有这个特性。我提出的UMPCA则可以得到非相关的特征。作为多线性子空间学习里的一员,UMPCA运算也在较低维数空间进行,投影的结果相对简单,不过收敛性没有MPCA好。

3. UMLDA: 非相关多线性鉴别分析, Uncorrelated Multilinear Discriminant Analysis

这个算法是LDA到多维的一个延伸,因为是张量到矢量的投影并且得到非相关特征,所以算法和UMPCA接近。单用一个UMLDA通常能得到的特征较少,所以我提出了聚合(Aggregate)几个不同初始化UMLDA的方法来解决它的这个局限。类似的,UMLDA运算也在较低维数空间,投影的结果相对简单,收敛性和UMPCA类似,没有MPCA好。

4. R-CSP:正则化公共空间模式, Regularized Common Spatial Pattern

这个算法是把JH Friedman的经典算法RDA和EEG里的经典算法CSP结合,并且应用了我在UMLDA里提出的聚合(Aggregation)的方法解决选择正则化参数的问题,另外也借鉴了师姐做的Generic Learning,或者说现在流行的Transfer Learning的方法。


http://blog.sciencenet.cn/blog-599967-554261.html

上一篇:[转载兼评论】李彦宏:百度为什么不建研究院?
下一篇:转李开复微博三则:关键能力,建立好人缘,及可持续技能

2 宋铁成 廖红虹

发表评论 评论 (5 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2020-12-1 11:38

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部