冯向军的科学研究博客分享 http://blog.sciencenet.cn/u/冯向军 在本博客中专门从事以统计力学为核心的理论物理研究。

博文

从发生概率和信息熵同时最大原理浅浅看世界

已有 2978 次阅读 2017-7-25 08:57 |个人分类:决定性概率论|系统分类:论文交流

从发生概率和信息熵同时最大原理浅浅看世界

美国归侨冯向军博士,2017年7月25日写于美丽家乡


 长久以来【1】,人们一直认为决定事物分布或组成的是约束条件下的最大信息熵S:

S = -p1log(p1) - p2log(p2) - ...-pnlog(pn)

S= -p1(A1)log(p1(A1)) - p2(A2)log(p2(A2)) - ...- pnlog(pn(An))  (1-1)

这其中A1,A2,...,An是代表广义系统的构成所涉及的n个两两相互对立的广义方向的n

个单位向量。pi(Ai)是广义系统在第i个广义方向上发生或出现的概率,i = 1,2,...,n。

如果把-log(pi(Ai))理解概率pi(Ai)所产生的信息那么,

-pi(Ai)log(pi(Ai)就是概率pi(Ai)自己对自己所产生的信息加权而得到的加权信息,我称为自加权信息。因此人们一直认为决定事物分布或组成的是约束条件下的最大自加权信息之和。但是,发生概率和信息熵同时最大原理却认为【2】,决定事物分布或组成的是约束条件下的最大信息熵和最大发生概率对数之和SUM:

SUM=-(-p*1(A1)log(p1(A1))-p*2(A2)log(p2(A2))-...--p*nlog(pn(An)))  

(1-2)

这其中,p*i(Ai)是Ai的对立面或互补面非Ai发生或出现的概率。因此可以认为:

-p*i(Ai)log(p1(Ai))是Ai的对立面或互补面非Ai的发生概率概率pi所产生的信息加权而得到的加权信息,我称为互加权信息。这就是说发生概率和信息熵同时最大原理认为,决定事物分布或组成的是约束条件下的最小互加权信息之和(之所以说最小是因为(1-2)式中负号的缘故)。

参考文献

【1】Jaynes, E. T. (1957). "Information Theory and Statistical Mechanics", Physical Review,Vol. 106,No. 4,620-630,May 15,1957.

http://www.doc88.com/p-9942714807822.html

【2】冯向军,《关于决定性事件的概率论》的里程碑:发生概率和信息熵同时最大原理,科学网,2017年7月24日。http://blog.sciencenet.cn/blog-1968-1067848.html




 



https://blog.sciencenet.cn/blog-1968-1067971.html

上一篇:一个关乎现代科学人宇宙观或世界观的崭新极值原理
下一篇:只有我心里明白昨天统计物理究竟发生了什么翻天覆地的巨变
收藏 IP: 113.222.191.*| 热度|

0

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...
扫一扫,分享此博文

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-12-24 00:03

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部