我爱读PAMI分享 http://blog.sciencenet.cn/u/jingyanwang

博文

女博士如何战胜第三者:Low-Complexity Feature Selecti

已有 5871 次阅读 2010-3-25 21:37 |个人分类:RED|系统分类:论文交流

Natural Image Statistics and Low-Complexity Feature Selection

Vasconcelos, M.; Vasconcelos, N.;
Pattern Analysis and Machine Intelligence, IEEE Transactions on
Volume: 31 , Issue: 2
Digital Object Identifier: 10.1109/TPAMI.2008.77 
Publication Year: 2009 , Page(s): 228 - 244

先上王道! 葡萄牙的女博士,长得还行吧,就是搞科研搞迷糊了,被小三(第三者)插足了。具体如何?听哥哥慢慢道来

  • 作者的目的是特征选择,用最可能简单的方法,选出那些样本和类别标号的互信息量(I)最大的特征子集。这是一个很好的思想。(上篇是选出那些能最大限度保留熵的子集)。

  •  进一步地,作者认为,特征子集和类别信息的互信息量,可以分为:

    • 每个单个特征的

    • 特征间关系受到类别信息的影响(称作conjunctive component,C)

  • 把特征集合分为l个特征一组,在这种情况下,作者计算了一个CI,就是特征跟本组之间的相互关系,有多少受到其他分组的影响。给另个l,又有个CI,所以CI是表示在不同分组(l不同),特征分组内的关系,受到第三者分组的影响。  

即是:A与B的关系,受到第三者C的影响!关键是怎么组织A和B,作者能想到这点真不容易呀!我也是看了好几遍看悟到的!

真相!:作者为啥能想到这个呢,我大胆猜想,作者A是个女博士,本来有个帅气的男友B,关系好好的,谁曾想出现了一个水灵小姑娘C,于是A与B的关系迅速恶化!作者怎么也想不通A和B的关系,怎么会受到第三者C的影响呢?可是男人都知道

 

  • 作者进一步地说:要想计算简单,就得让小三靠边站!别影响CI,可是这还是不够的:还要加上CI不要受类别信息的影响,让Y也靠边站!  

  • 这下女博士终于满意了,消停了:得这样分组(夫妻组合),夫妻关系既能斗得过小三,有能不受外界分类影响,这样的分组关系(对应一个l),叫做l阶可降解。真由她的!

  • 满足了条件,女博士开始挑选特征W,分成组C_Cl,最终使得互信息量最大。

  • 另外,作者通过实验得到:分组的时候,小两口一组最好!三人一个家,要出事!

女博士真麻烦,可累死哥哥了!做了15页笔记才抓住作者的思想,不过收获也很多:

  • 可能的话,以样本X和类别Y的互信息量I(X,Y)作为目标函数;

  • 分组后,第三者对组内的关系的影响,这个很有启发性!

  • 原文用的是贪心算法寻优,是否可以像3D人脸识别那样,用模拟退火?

  • 能不用在蛋白质分类的特征选择上?

  • 能不能用来指导距离学习?如医学图像检索的提升距离测度学习那样?





https://blog.sciencenet.cn/blog-205121-306143.html

上一篇:老师上阵拼刺刀的典范:Kernel Entropy Co
下一篇:忘恩负义才能创新:Bayes Decision Rule Induced Similarity Mea
收藏 IP: 109.171.137.*| 热度|

3 向峥嵘 黄富强 唐常杰

该博文允许注册用户评论 请点击登录 评论 (4 个评论)

数据加载中...
扫一扫,分享此博文

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-3-29 06:01

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部