冯向军的科学研究博客分享 http://blog.sciencenet.cn/u/冯向军 在本博客中专门从事以统计力学为核心的理论物理研究。

博文

最大信息熵原理的“幂律分布悖论”

已有 3132 次阅读 2017-7-22 09:22 |个人分类:决定性概率论|系统分类:论文交流

最大信息熵原理的“幂律分布悖论”

美国归侨冯向军博士,2017年7月22日写于美丽家乡


定理:对于幂律分布而言,如果最大信息熵原理赖以推出幂律分布的“变量的对数的统计平均值是常量”成立,那么,信息熵本身就是常量。

证明:对于有限样本幂律分布ax-λ,因为

pi = axi-λ

log(xi) =1/λlog(a/pi)

变量的对数的统计平均值 = p1log(x1) + p2log(x2) +...+pnlog(xn)

= 1/λ*(p1log(a/p1) + p2log(a/p2) +...+pnlog(a/pn))

= 1/λ*(log(a) - p1log(p1)-p2log(p2)-...-pnlog(pn))

= 1/λ*(log(a) + 信息熵)。

如果说“变量的对数的统计平均值是一与概率分布无关的常量”,那么信息熵本身就是与概率分布无关的常量。

如果变量的对数的统计平均值不是与概率分布无关的常量,那么,用信息熵最大配合变量的对数的统计平均值为常量来推导幂律分布,对于有限样本而言,一般就是凑数据。








https://blog.sciencenet.cn/blog-1968-1067568.html

上一篇:最大信息熵原理的“负指数分布悖论“
下一篇:万悖痴梦:最大信息熵原理配合约束条件求分布
收藏 IP: 113.222.197.*| 热度|

0

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...
扫一扫,分享此博文

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-6-4 00:31

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部