我爱读PAMI分享 http://blog.sciencenet.cn/u/jingyanwang

博文

[回顾]监督的量化码本学习:Supervised Learning of Quantizer C

已有 3393 次阅读 2010-8-12 15:42 |个人分类:REVW|系统分类:论文交流

Supervised Learning of Quantizer Codebooks by Information Loss Minimization

Lazebnik, S.; Raginsky, M.;
Pattern Analysis and Machine Intelligence, IEEE Transactions on
Volume: 31 , Issue: 7
Digital Object Identifier: 10.1109/TPAMI.2008.138
Publication Year: 2009 , Page(s): 1294 - 1309

IEEE Journals

软量化前,要最小化的目标函数是:

想通过求m_k来最小化它,根本无从下手;

而量化之后:


可以直接对m_k求导了,下面那个麻烦的累加项变成了一个系数,于是可以直接求导数来解最小化的问题。

但是这样的话,就不能求之前想的LNP的方法了。

2.回忆一下整个思路:

1)目标函数I(X,Y)-I(K,Y)最小化:得到一个

可以用迭代算法吧R_k和TT_k求出来。完成聚类。

 2)寻找吗本M和对应概率TT,引入软量化,得到迭代的学习方法。

3)在加入Distortion的问题,进一步推进M的学习。

先出去走十分钟再回来想想有啥可以创新和联系的。

走完回来,其实TT,也就是每个码字的是某类别的概率,可以直接用来做weighting的呀!参考http://www.sciencenet.cn/m/user_content.aspx?id=345675



https://blog.sciencenet.cn/blog-205121-352332.html

上一篇:模糊特征矢量的贝叶斯聚类:Bayesian Clustering of Fuzzy Featu
下一篇:局部距离函数:Local Distance Functions
收藏 IP: 210.72.8.*| 热度|

0

发表评论 评论 (0 个评论)

数据加载中...
扫一扫,分享此博文

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-11-1 09:30

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部