||
对信息熵最大配合变量的统计平均值不变来获得
负指数分布的质疑
美国归侨冯向军博士,2017年7月20日写于美丽家乡
【摘要】我已经展示了通过发生概率最大配合最自然的约束条件【1】和直接从二项分布出发【2】【3】均能很容易地推导出负指数分布和其他种种分布,完全不必要用信息熵最大配合变量的统计平均值不变来推导负指数分布。现在的问题是信息熵最大配合变量的统计平均值不变来获得负指数分布有无实质性问题。本文的答案是肯定的。
与变量等于x1相对应的概率p(x1)有明确物理意义【2】,那就是指定事件下一次出现所需要的变量间隔等于x1的概率。这也就是说,变量x1对概率p(x1)的约束,完全由x1和p(x1)决定,而与x2和p2,...,xn和pn毫无关系。你如果亲自直接从二项分布出发推导出负指数分布,你就会对变量xi对概率p(xi)的约束,完全由xi和p(xi)决定而与其他变量值和概率值毫无关系的事实有深切的实际感受。因此合理的拉格朗日算子应该可写成:
L = T + C(p(x1) + p(x2) + ...+ p(xn) - 1) +
+C1(p(x1)/f(x1) - 1)
+C2(p(x2)/f(x2) - 1)+
+...+
+Cn(p(xn)/f(xn) - 1)
这其中T是目标函数,f(xi)是约束p(xi)的函数,C,C1,C2,...Cn均为待定常数。
因为一般而言pixi 不等于常数(i=1,2,...n),所以 变量的统计平均值不变不能分拆为
+C1(p(x1)x1 - c1)
+C2(p(x2)x2 - c2)+
+...+
+Cn(p(xn)xn - cn)
因此就不能描述变量xi对概率p(xi)的约束,完全由xi和p(xi)决定而与其他变量值和概率值毫无关系的事实。
这就是说变量的统计平均值不变,对于负指数分布而言,不是完全切合实际的约束条件。但是要用信息熵最大来求得负指数分布,约束条件必须是变量的统计平均值不变。这也就是说信息熵最大不是完全符合实际的导致负指数分布的物理原因。
【由变量xi对概率pi的约束的相对独立性重新推导出负指数分布和其他种种分布】
定理:配合最真实的约束条件
p1/f(x1)= p2/f(x2)= ...=pn/f(xn) = 常数=1 (1-1)
,由《关于决定性事件的概率论》所首创的最大发生概率原理,均可推导出概率分布:pi = f(xi), i = 1,2,...,n。
证明: