||
《关于决定性事件的概率论》的里程碑:
发生概率和信息熵同时最大原理
美国归侨冯向军博士,2017年7月24日写于美丽家乡
我将发生概率作为崭新的信息测度正式引进了统计物理学。
我居然发现除了最大发生概率原理外,其他所有的极值原理配合种种约束条件所导出的分布,一般而言,都不具备最大发生概率,而最大发生概率原理又能给出一切实现了的分布与最大发生概率相对应的统一约束条件。
另外当且仅当无任何非自然约束条件,最大发生概率原理和其他所有的极值原理给出相同的具有最大可达发生概率(1/n)n的分布:均匀分布!!!
这些天,我反复问自己的只有一句话:
这难道不是此生最重大的科学发现和科学研究机遇?
今天我终于提出了发生概率和信息熵同时最大原理
这是一个重要里程碑!
【发生概率和信息熵同时最大原理】
在任何约束条件下,概率分布必须使兼顾发生概率和信息熵的信息测度:
发生概率的对数 + 信息熵
log(P) + S = -(p1-1)log(p1) -(p2-1)log(p2)-...-(pn-1)log(pn)
最大。
【发生概率和信息熵同时最大原理的极值目标函数】
发生概率和信息熵同时最大原理的极值目标函数是
发生概率的对数 + 信息熵
log(P) + S = -(p1-1)log(p1) -(p2-1)log(p2)-...-(pn-1)log(pn) (1-1)
log(P) + S = -(-p1*log(p1) -p2*log(p2)-...-pn*log(pn)) (1-2)
这其中,pi*是pi的补概率。如何解读发生概率的对数 + 信息熵的物理意义有待进一步深入研究。但是作为在补概率或不发生概率加权平均下的信息的负值,发生概率的对数 + 信息熵其本身于我就是富有想象空间的或很有意思的。
【发生概率和信息熵同时原理的统一约束条件】
用发生概率和信息熵同时原理求分布的统一约束条件是:
p1/f(x1) + p2/f(x2) +...+pn/f(xn) = 常数 = n (1-3)
-p1log(f(x1))-p2log(f(x2))-...-pnlog(f(xn)) = 常量 (1-4)
p1 + p2 +...+pn = 1 (1-5)
这其中f(xi)是想要推导的分布。
【举例:用发生概率和信息熵同时最大原理推导出负指数分布】
对于平衡态负指数分布pi=f(xi)=aexp(-bxi),i=1,2,...,n
因为:
log(P) + S = -(p1-1)log(p1) -(p2-1)log(p2)-...-(pn-1)log(pn)(目标函数)
p1/f(x1) + p2/f(x2) +...+pn/f(xn) = 常数 = n (自洽约束条件)
p1 + p2 +...+pn = 1 (自然约束条件)
又因为:
f(xi) = aexp(-bxi),i=1,2,...,n
p1x1 + p2x2 +... + pnxn = 常量
所以:
-p1log(f(x1))-p2log(f(x2))-...-pnlog(f(xn)) = 常量 (系统约束条件)
可构造拉格朗日算子
L = -(p1-1)log(p1) -(p2-1)log(p2)-...-(pn-1)log(pn)
+ C1(p1 + p2 +...+ pn - 1)
+ C2((p1/f(x1) + p2/f(x2) +...+