||
Lazebnik, S.; Raginsky, M.;
Pattern Analysis and Machine Intelligence, IEEE Transactions on
Volume: 31 , Issue: 7
Digital Object Identifier: 10.1109/TPAMI.2008.138
Publication Year: 2009 , Page(s): 1294 - 1309
IEEE Journals
Abstract | Full Text: PDF (3973 KB)
又看了一遍笔记,刚开始竟然没有记忆了!十几天了,时间有点长了;或者是我记忆里衰退了!那可就惨了!
1.发现了一个亮点:作者为啥要用软量化?
软量化前,要最小化的目标函数是:
想通过求m_k来最小化它,根本无从下手;
而量化之后:
可以直接对m_k求导了,下面那个麻烦的累加项变成了一个系数,于是可以直接求导数来解最小化的问题。
但是这样的话,就不能求之前想的LNP的方法了。
2.回忆一下整个思路:
1)目标函数I(X,Y)-I(K,Y)最小化:得到一个
可以用迭代算法吧R_k和TT_k求出来。完成聚类。
2)寻找吗本M和对应概率TT,引入软量化,得到迭代的学习方法。
3)在加入Distortion的问题,进一步推进M的学习。
先出去走十分钟再回来想想有啥可以创新和联系的。
走完回来,其实TT,也就是每个码字的是某类别的概率,可以直接用来做weighting的呀!参考http://www.sciencenet.cn/m/user_content.aspx?id=345675
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-11-1 11:27
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社