冯向军的科学研究博客分享 http://blog.sciencenet.cn/u/冯向军 在本博客中专门从事以统计力学为核心的理论物理研究。

博文

最大信息熵原理的“负指数分布悖论“

已有 2056 次阅读 2017-7-22 06:53 |个人分类:决定性概率论|系统分类:论文交流| 悖论, 最大信息熵原理

最大信息熵原理的“负指数分布悖论”

美国归侨冯向军博士,2017年7月22日写于美丽家乡


定理:对于负指数分布而言,如果最大信息熵原理赖以推出负指数分布的“变量的统计平均值是常量”成立,那么,信息熵本身就是常量。

证明:对于有限样本负指数分布aexp(-λx),因为

pi = aexp(-λxi)

xi =1/λlog(a/pi)

变量的统计平均值 = p1x1 + p2x2 +...+pnxn

= 1/λ*(p1log(a/p1) + p2log(a/p2) +...+pnlog(a/pn))

= 1/λ*(log(a) - p1log(p1)-p2log(p2)-...-pnlog(pn))

= 1/λ*(log(a) + 信息熵)。

如果说“变量的统计平均值是一与概率分布无关的常量”,那么信息熵本身就是与概率分布无关的常量。

注:张学文快刀斩乱麻实验中,n = 15,与无穷大样本空间实在是没关系。

如果变量的统计平均值不是与概率分布无关的常量,那么,用信息熵最大配合变量的统计平均值为常量来推导负指数分布,对于有限样本而言,一般就是凑数据。








https://blog.sciencenet.cn/blog-1968-1067548.html

上一篇:建立在“玻尔兹曼无穷大样本”基础上的思维并不适合小样本
下一篇:最大信息熵原理的“幂律分布悖论”
收藏 IP: 113.222.197.*| 热度|

0

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...
扫一扫,分享此博文

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-5-1 05:39

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部