||
从发生概率和信息熵同时最大原理浅浅看世界
美国归侨冯向军博士,2017年7月25日写于美丽家乡
长久以来【1】,人们一直认为决定事物分布或组成的是约束条件下的最大信息熵S:
S = -p1log(p1) - p2log(p2) - ...-pnlog(pn)
S= -p1(A1)log(p1(A1)) - p2(A2)log(p2(A2)) - ...- pnlog(pn(An)) (1-1)
这其中A1,A2,...,An是代表广义系统的构成所涉及的n个两两相互对立的广义方向的n
个单位向量。pi(Ai)是广义系统在第i个广义方向上发生或出现的概率,i = 1,2,...,n。
如果把-log(pi(Ai))理解概率pi(Ai)所产生的信息那么,
-pi(Ai)log(pi(Ai)就是概率pi(Ai)自己对自己所产生的信息加权而得到的加权信息,我称为自加权信息。因此人们一直认为决定事物分布或组成的是约束条件下的最大自加权信息之和。但是,发生概率和信息熵同时最大原理却认为【2】,决定事物分布或组成的是约束条件下的最大信息熵和最大发生概率对数之和SUM:
SUM=-(-p*1(A1)log(p1(A1))-p*2(A2)log(p2(A2))-...--p*nlog(pn(An)))
(1-2)
这其中,p*i(Ai)是Ai的对立面或互补面非Ai的发生或出现的概率。因此可以认为:
-p*i(Ai)log(p1(Ai))是Ai的对立面或互补面非Ai的发生概率对概率pi所产生的信息加权而得到的加权信息,我称为互加权信息。这就是说发生概率和信息熵同时最大原理认为,决定事物分布或组成的是约束条件下的最小互加权信息之和(之所以说最小是因为(1-2)式中负号的缘故)。
参考文献
【1】Jaynes, E. T. (1957). "Information Theory and Statistical Mechanics", Physical Review,Vol. 106,No. 4,620-630,May 15,1957.
http://www.doc88.com/p-9942714807822.html
【2】冯向军,《关于决定性事件的概率论》的里程碑:发生概率和信息熵同时最大原理,科学网,2017年7月24日。http://blog.sciencenet.cn/blog-1968-1067848.html
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-11-23 16:59
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社