|||
冯向军一般化知觉模型及其对几乎所有的信息测度的统一
美国归侨冯向军博士,2017年6月30日写于美丽家乡
【引言】
2006年1月29日,我发表了冯向军知觉模型并用这个模型统一了各类流行的信息测度以及于宏义观控隶属度【1】。现在在清净心中反观旧作,觉得有科学价值。因此决定专门写这篇博文,把这项重要科学研究成果彻底向国人讲清楚,并在此基础上作进一步发展。
【更一般的冯向军知觉模型】
在【1】文给出的冯向军知觉模型基础上,我进一步提出了如下所示的更一般的知觉模型:
deltaS = a(deltaST)/ST + b(ST)q-2deltaST (1-1)
这其中,ST是表达某种刺激的大小的物理量,
deltaST是刺激量的绝对变化,
(deltaST)/ST是刺激量的相对变化,
而deltaS则是感觉量S的变化。
a和b是待定常数。
当q = 2, (1-1)式就是【1】文中提出的冯向军知觉模型。
当待定常数b = 0, (1-1)式就是韦伯-费希纳定律【2】。
当待定常数a = 0, (1-1)式就是斯蒂文斯定律【3】。
【更一般的冯向军知觉模型相对于原冯向军知觉模型的意义】
更一般的冯向军知觉模型相对于原冯向军知觉模型的意义在于它不仅能统一各类流行的信息测度以及于宏义观控隶属度,还能统一原冯向军知觉模型不能统一的Tsallis广义熵。
【更一般的冯向军知觉模型的重要科学价值】
更一般的冯向军知觉模型几乎统一了所有的实验心理学定律、所有的信息测度以及观控测度,它给我们带来了一种全新的认识: 一切主观上的感觉量和客观上的信息量都是对客观刺激量及其变化的反应的测度。客观信息量之源和主观感觉量之源都是客观刺激量及其变化。客观信息量和主观感觉量与客观刺激量之间的关系服从同一个一般模型。这个一般模型就是本文提出的(1-1)式或更一般的冯向军知觉模型。
【由更一般的冯向军知觉模型推导出Tsallis广义熵的数学表达式】【4】
在式(1-1)中,令 a = 0,b = -1,有:
deltaS = -(ST)q-2deltaST (1-2)
S = -1/(q-1)* STq-1 + C
因为刺激量ST为门槛刺激量STmin时,感觉量或反应量S最小其绝对值 = 0,所以
C = +1/(q-1) * STminq-1
S = -1/(q-1)* STq-1 + 1/(q-1) * STminq-1
命 STmin = max(p) = 1,刺激量ST = p,则有:
S = 1/(q-1)(1 - pq-1) (1-3)
式(1-3)实际上就是具有概率p的单个事件所产生的Tsallis信息。对于概率分布p1,p2,...,pn,可得Tsallis信息的统计平均值---著名的Tsallis广义熵:
Tsallis广义熵
= 1/(q-1)(p1 - p1q)+ 1/(q-1)(p2 - p2q)+ ...+ 1/(q-1)(pn - pnq)
= 1/(q-1)(p1 + p2 +...+ pn - p1q- p2q -...-pnq)
Tsallis广义熵 = 1/(q-1)(1 - p1q- p2q -...-pnq) (1-4)
【由更一般的冯向军知觉模型所推导出各种基于刺激的相对变化的信息测度】
在(1-1)式中,命 b = 0,
deltaS = a(deltaST)/ST (1-5)
S = alog(ST) + C,这其中 log是自然对数。
因为刺激量ST为门槛刺激量STmin时,感觉量或反应量S最小其绝对值 = 0,所以
C = - alog(STmin)
S = alog(ST/STmin) (1-6)
命STmin = min(1/p) = 1,刺激ST = 概率的倒数 = 1/p,又命a = 1,则有:
S = -log(p) (1-7)
式(1-7)实际上就是具有概率p的单个事件所产生的詹尼斯信息。对于概率分布p1,p2,...,pn,可得詹尼斯信息的统计平均值---著名的詹尼斯信息熵:
詹尼斯信息熵 = -p1log(p1) -p2log(p2) -...-pnlog(pn) (1-8)
命W为玻尔兹曼热力学几率,STmin = min(W) = 1,刺激 ST = W,又命 a = 玻尔兹曼常数k,代入式(1-6)就有:
S = klog(W) (1-9)
这就是著名的玻尔兹曼熵。
命 可能性的总数 = N,STmin = min(N) = 1,ST = N,又命a = 1,有:
S = log(N) (1-10)
这就是HARTLEY信息。
对于概率分布p1,p2,...,pn,令门槛刺激量STmin = 1/n,STj = pj,j = 1,2,...n。又令a = 1,则有:
Sj = log(n) + log(pj) (1-11)
这实际上就是自然对数形式的单个事件所包含的于宏义约束信息【5】。单个事件所包含的于宏义约束信息的统计平均值就是自然对数形式的于宏义统计平均约束信息eBI。
eBI = p1log(n)+ p1log(p1)+ p2log(n) + p2log(p2)+...+ pnlog(n) + pnlog(pn)
eBI = log(n) + p1log(p1) + p2log(p2) +...+pnlog(pn) (1-12)
假设p1,p2...,pn 和q1,q2,...,qn 为两个概率分布。以qj为门槛刺激量而以pj为刺激量(j = 1,2,...,n),又命 a = 1,则有:
Sj = log(pj/qj) (1-12)
这实际上就是单个事件所包含的Kullback-Leibler相对信息【1】。单个事件所包含的Kullback-Leibler相对信息的统计平均值就是著名的Kullback-Leibler相对信息熵。
Kullback-Leibler相对信息熵 = p1log(p1/q1) + p2log(p2/q2) + ...+ pnlog(pn/qn)
以上就最著名的或者比较特殊的信息测度说明了更一般的冯向军知觉模型是几乎所有信息测度的统一模型。其他例子就不一一列举了。万一你觉得还有更一般的冯向军知觉模型所统一不了的信息测度,欢迎与我联系。综上所述可得出如下重要结论。
【结论】
(1)更一般的冯向军知觉模型相对于原冯向军知觉模型的意义在于它不仅能统一各类流行的信息测度以及于宏义观控隶属度,还能统一原冯向军知觉模型不能统一的Tsallis广义熵。
(2)更一般的冯向军知觉模型几乎统一了所有的实验心理学定律、所有的信息测度以及观控测度,它给我们带来了一种全新的认识: 一切主观上的感觉量和客观上的信息量都是对客观刺激量及其变化的反应的测度。客观信息量之源和主观感觉量之源都是客观刺激量及其变化。客观信息量和主观感觉量与客观刺激量之间的关系服从同一个一般模型。这个一般模型就是本文提出的(1-1)式或更一般的冯向军知觉模型。
参考文献
【1】冯向军,[原创]用冯向军知觉模型实现HARTLEY信息、香侬信息、复杂度信息、本质信息、KULLBACK相对信息、鱼罩子广义信息、观控隶属度、观控隶属域的超大统一,豆丁网, 2006年1月29日。http://www.docin.com/p-48077162.html
【2】韦伯-费希纳定律,360百科。https://baike.so.com/doc/3137757-3307017.html
【3】斯蒂文斯定律,心理学科知识。http://www.xinli110.com/xueke/jczs/shiyanxinli/201203/286086.html
【4】Tsallis entropy,Wikipedia,https://en.wikipedia.org/wiki/Tsallis_entropy
【5】冯向军,基于概率的于宏义观控测度,科学网,2017年6月17日。http://blog.sciencenet.cn/blog-1968-1061285.html
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-11-23 08:55
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社