冯向军的科学研究博客分享 http://blog.sciencenet.cn/u/冯向军 在本博客中专门从事以统计力学为核心的理论物理研究。

博文

《关于决定性事件的概率论》第四章冯向军一般化知觉模型

已有 3411 次阅读 2017-9-7 13:41 |个人分类:决定性概率论|系统分类:论文交流| 冯向军一般化知觉模型

关于决定性事件的概率论第四章

关于决定性事件的概率论第四章

前一章

后一章

最新篇章

第四章冯向军一般化知觉模型及其

对几乎所有的信息测度的统一

(2017年9月7日)

§4.1引言

 本书第二章中的统计力学第二定律已指出,变量的变化所引起的概率的信息量变化是引起概率变化的直接原因。概率及概率分布的各种信息量的测度或信息测度对概率的变化及概率分布的形成有决定性作用。2006年1月29日,本书著作者发表了冯向军知觉模型并用这个模型统一了多种流行的信息测度以及于宏义观控隶属度【4-1】,2017年又将冯向军知觉模型发展成为冯向军一般化知觉模型,统一了包括Tsallis广义熵在内的几乎所有的信息测度。

§4.2 冯向军一般化知觉模型

在【4-1】文给出的冯向军知觉模型基础上,本书著作者提出了如下所示的更一般的知觉模型:

deltaS = a(deltaST)/ST + b(ST)q-2deltaST        (4-1)

这其中,ST是表达某种刺激的大小的物理量,

deltaST是刺激量的绝对变化,

(deltaST)/ST是刺激量的相对变化,

而deltaS则是感觉量或反应量S的变化。

a和b是待定常数。

当q = 2, (4-1)式就是【4-1】文中提出的冯向军知觉模型。

当待定常数b = 0, (4-1)式就是表明心理量和物理量之间的关系的韦伯-费希纳定律

【4-2】。

当待定常数a = 0, (4-1)式就是表明心理量和物理量之间的幂律关系斯蒂文斯定律

【4-3】。

§4.3 冯向军一般化知觉模型相对于原冯向军知觉模型的意义

 冯向军一般化知觉模型相对于原冯向军知觉模型的意义在于它不仅能统一各类流行的信息测度以及于宏义观控隶属度,还能统一原冯向军知觉模型不能统一的Tsallis广义熵。

§4.4 冯向军一般化知觉模型的重要科学价值

 冯向军一般化知觉模型几乎统一了所有的实验心理学定律所有的信息测度以及观控测度,它给我们带来了一种全新的认识: 一切主观上的感觉量和客观上的信息量都是对客观刺激量及其变化的反应的测度。客观信息量之源和主观感觉量之源都是客观刺激量及其变化。客观信息量和主观感觉量与客观刺激量之间的关系服从同一个一般模型。这个一般模型就是本文提出的(4-1)式或冯向军一般化知觉模型。

§4.5 冯向军一般化知觉模型推导出Tsallis广义熵的数学表达式【4-4】

在式(4-1)中,令 a = 0,b = -1,有:

deltaS = -(ST)q-2deltaST        (4-2)

S = -1/(q-1)* STq-1 + C          

因为刺激量ST为门槛刺激量STmin时,感觉量或反应量S最小其绝对值 = 0,所以

C = +1/(q-1) * STminq-1

S = -1/(q-1)* STq-1 + 1/(q-1) * STminq-1

命 STmin = max(p) = 1,刺激量ST = p,则有:

S = 1/(q-1)(1 - pq-1)        (4-3)

式(4-3)实际上就是具有概率p的单个事件所产生的Tsallis信息。对于概率分布p1,p2,...,pn,可得Tsallis信息的统计平均值---著名的Tsallis广义熵:

Tsallis广义熵

= 1/(q-1)(p1 - p1q)+ 1/(q-1)(p2 - p2q)+ ...+ 1/(q-1)(pn - pnq

= 1/(q-1)(p1 + p2 +...+ pn - p1q- p2q -...-pnq

Tsallis广义熵 = 1/(q-1)(1 - p1q- p2q -...-pnq)    (4-4)

§4.6 冯向军一般化知觉模型所推导出各种基于刺激的相对变化的信息测度

在(4-1)式中,命 b = 0,

deltaS = a(deltaST)/ST         (4-5)

S = alog(ST) + C,这其中 log是自然对数。

因为刺激量ST为门槛刺激量STmin时,感觉量或反应量S最小其绝对值 = 0,所以

C = - alog(STmin)

S = alog(ST/STmin)        (4-6)

STmin = min(1/p) = 1,刺激ST = 概率的倒数 = 1/p,又命a = 1,则有:

S = -log(p)        (4-7)

式(4-7)实际上就是具有概率p的单个事件所产生的詹尼斯信息。对于概率分布p1,p2,...,pn,可得詹尼斯信息的统计平均值---著名的詹尼斯信息熵:

詹尼斯信息熵 = -p1log(p1) -p2log(p2) -...-pnlog(pn)        (4-8)

命W为玻尔兹曼热力学几率,STmin = min(W) = 1,刺激 ST = W,又命 a = 玻尔兹曼常数k,代入式(4-6)就有:

S = klog(W)        (4-9)

这就是著名的玻尔兹曼熵。

命 可能性的总数 = N,STmin = min(N) = 1,ST = N,又命a = 1,代入式(4-6)就有:

S = log(N)        (4-10)

这就是HARTLEY信息。

对于概率分布p1,p2,...,pn,令门槛刺激量STmin = 1/n,STj = pj,j = 1,2,...n。又令a = 1,则有:

Sj = log(n) + log(pj)        (4-11)

这实际上就是自然对数形式的单个事件所包含的于宏义约束信息【4-5】。单个事件所包含的于宏义约束信息的统计平均值就是自然对数形式的于宏义统计平均约束信息eBI。

eBI = p1log(n)+ p1log(p1)+ p2log(n) + p2log(p2)+...+ pnlog(n) + pnlog(pn)

eBI = log(n) -(- p1log(p1) - p2log(p2) -...-pnlog(pn))    (4-12)

假设p1,p2...,pn 和q1,q2,...,qn 为两个概率分布。以qj为门槛刺激量而以pj为刺激量(j = 1,2,...,n),又命 a = 1,则有:

Sj = log(pj/qj)        (4-13)

这实际上就是单个事件所包含的Kullback-Leibler相对信息【4-1】。单个事件所包含的Kullback-Leibler相对信息统计平均值就是著名的Kullback-Leibler相对信息熵。

Kullback-Leibler相对信息熵 = p1log(p1/q1) + p2log(p2/q2) + ...+ pnlog(pn/qn)

§4.7 冯向军一般化知觉模型推导作为信息测度的发生概率P

在(4-1)式中,命 a = 0, b = 1,有:

deltaS = deltaST         (4-14)

S = ST + C

STmin = min(p) = 0,刺激ST = 概率p,则有:

S = p    (4-15)

对概率分布p1,p2,...,pn求单个事件的概率p这种刺激所引发的反应量S求几何平均值Gavg,有:

Gavg = (p1*p2*...*pn)1/n    (4-16)

于是可得发生概率P的表达式:

P = Gavgn = p1*p2*...pn    (4-17)

§4.8 冯向军一般化知觉模型推导作为信息测度的平均概率Pavg

在(4-1)式中,命 a = 0, b = 1,有:

deltaS = deltaST        

S = ST + C

STmin = min(p) = 0,刺激ST = 概率p,则有:

S = p    

对概率分布p1,p2,...,pn求单个事件的概率p这种刺激所引发的反应量S的算术统计平均值Pavg,则可称Pavg为平均概率【4-6】。有

Pavg = p1*p1 + p2*p2 + ...+ pn*pn    (4-18)

由式(4-18)可知平均概率Pavg等于概率分布中各概率的平方和。于是可得平均概率Pavg的表达式:

Pavg = p12 + p22 + ...+ pn2    (4-19)

以上就最著名的或者比较特殊的信息测度说明了冯向军一般化知觉模型是几乎所有信息测度的统一模型。其他例子就不一一列举了。万一你觉得还有冯向军一般化知觉模型所统一不了的信息测度,欢迎与本书著作者联系。综上所述可得出如下重要结论。

§4.9 结论

(1)冯向军一般化知觉模型相对于原冯向军知觉模型的意义在于它不仅能统一各类流行的信息测度以及于宏义观控隶属度,还能统一原冯向军知觉模型不能统一的Tsallis广义熵。

(2)冯向军一般化知觉模型几乎统一了所有的实验心理学定律、所有的信息测度以及观控测度,它给我们带来了一种全新的认识:  一切主观上的感觉量和客观上的信息量都是对客观刺激量及其变化的反应的测度。客观信息量之源和主观感觉量之源都是客观刺激量及其变化。客观信息量和主观感觉量与客观刺激量之间的关系服从同一个一般模型。这个一般模型就是本文提出的(4-1)式或冯向军一般化知觉模型。

(待续)

参考文献

【4-1】冯向军,[原创]用冯向军知觉模型实现HARTLEY信息、香侬信息、复杂度信息、本质信息、KULLBACK相对信息、鱼罩子广义信息、观控隶属度、观控隶属域的超大统一,豆丁网, 2006年1月29日。http://www.docin.com/p-48077162.html

【4-2】韦伯-费希纳定律,360百科。https://baike.so.com/doc/3137757-3307017.html

【4-3】斯蒂文斯定律,心理学科知识。http://www.xinli110.com/xueke/jczs/shiyanxinli/201203/286086.html

【4-4】Tsallis entropy,Wikipedia,https://en.wikipedia.org/wiki/Tsallis_entropy

【4-5】冯向军,基于概率的于宏义观控测度,科学网,2017年6月17日。http://blog.sciencenet.cn/blog-1968-1061285.html

【4-6】 冯向军,关于平均概率的系统性研究,科学网,2017年6月12日。http://blog.sciencenet.cn/blog-1968-1060381.html







https://blog.sciencenet.cn/blog-1968-1074731.html

上一篇:最大似然冯向军泛有序对是典型的元存在
下一篇:关于决定性事件的概率论的治学之道:承先启后继往开来自利利他
收藏 IP: 113.222.189.*| 热度|

0

该博文允许注册用户评论 请点击登录 评论 (2 个评论)

数据加载中...
扫一扫,分享此博文

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-11-23 04:19

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部