卡尔纳普(CARNAP)和西拉尔(Hillel)的语义信息论文章考察
它声称要研究一个语句本身的信息, 它不受接受者理解和发送者意图影响,是客观包含在语句中的。 它定义了语句i的内容cont(i) m(zi), 或mp(zi)--事实z发生时i的逻辑概率。 信息in(i) 逻辑概率m(zi)---事实z发生在语句i后, 语句i的逻辑概率 inf(i) = Log {1/[l-cont(i)]} = Log [1/mp(i)]= -Log mp(i). 这个公式反映了, 先验逻辑概率越小, 信息量越大。 这和我的信息公式在某种程度上是一致的。
但是, 它没有考虑事实和命题的一致性。 我的公式中,后验逻辑概率越大(最大是1), 信息量就越大。我的公式是: I(zj; yi)=log[m(i|xi)/m(i)] m(i|xi)总是1,那么我的公式就退化为他们的公式。
他们文章还定义了条件信息--不是事实发生后, 语句的信息,而是一个语句发生后, 另一个语句提供的信息 D5-1. in(j/i) =Df in(i. j) - in(i)
这个公式在形式上也和Shannon的互信息公司不同, 按互信息公司, 其形式应该是 in(j/i) =Df in(i. j) - in(i)-in(j)
它更像是熵公司: H(x|y)=H(x,y)-H(y)
总的说来, 其缺陷是:没有考虑事实z和语句i的一致性, 或者说没有区分先验逻辑概率和后验逻辑概率。这是失败的主要原因。 另外,它对m(zi)的定义也成问题,说对于所有z, m(z)之和等于1. 而实际上, 逻辑概率之和大于零是正常的。比如永真命题,不管是么事实发生, 它都等于1, 之和肯定大于1.
其功绩是在信息公式中引进逻辑概率, 但是由于历史局限性(后来模糊数学的隶属度使逻辑概率问题更加清晰),所提供公式还不能解决通常的语义信息度量---预言“明天有雨”在明天降水量不同时的信息。
|