姜咏江
许多研究者将信息说成一个很抽象的概念。其实,我们时时刻刻在接触着信息,天天在使用信息,如何说信息很抽象?我们天天看报纸,听新闻,不间断地断地聆听世界的声音,嗅闻周围的气味,睁开眼睛就能够看到周围的一切,我们可以触摸物体而感知它的存在,我们可以书写文章来传达自己的心声,…。这一切不都是信息的实在吗?
信息是事物的表现和描述,是客观实在的东西,不论我们是否认识或承认它,它都随时随地地伴随着我们。
宇宙间的一切事物无不具有两重性,这就是“确定性”和“不确定性”。信息虽然也是客观实在的东西,但充满了不确定性也是它的一个重要特征。人们最早注意到信息,是来自“消息”。因为各种各样的消息会引导人们的行动。特别是在战争中,消息往往会起着决定战争胜负的作用。消息有真有假,当人们已经知道某个消息之后,这个消息再传来,已经是过时的了,因而就没有对这个消息一无所知的人用处大。可见消息或信息的“可用性”是它们的一个重要属性。从信息对人们的可用性来考虑,同一信息对不同的接收者的作用来说,就有大有小,对于这方面度量研究,就产生了香农的信息熵(shāng)概念。
由于信息对不同的接收对象作用不定,香农就想到用事件的概率作为信息的量度的依据。假如一个信息能够用随机变量x表示,并以概率p(x)向x传达信息。那么每一个p(x)“这个数”的二进制表示就需要 -log2p(x)位,在十进制下则需要-logp(x)位。
从不确定的可能性理解,这种二进制可能的位数就应该是 -p(x)•log2p(x) 或十进制下的 -p(x)•log p(x)。作为表达该信息x的全部信息量,从数的角度出发,应具有求和特征。于是用H表示信息量(即所谓的熵),则有二进制表数的公式为
同样,我们可以得出其他进制的熵公式。
从香农信息量计算公式的得出,不难看出他首先使用了信息数值化方法。也就是用二进制数来表示概率,其次才找出一种数学的计算公式。虽经千变万化,最终还是以“数码的位数”来确定信息量的大小而已。
在古典概型下,很容易证明 H = log2x。因为古典概率p(x)=1/x,所以
x
H = -∑(1/x•log2(1/x) )
1
x
= -∑(1/x•log2(1/x) )
1
x
= ∑(1/x )•log2x
1
= log2x
我们之所以采用二进制来计算信息量,是因为通信使用二进制编码,计算机也使用二进制编码。信息采用何种度量方式,取决于我们对信息的工作方式,亦即信息处理方式。还取决于我们对信息的量化方式。从“可能”到“必然”是我们求知认知的过程。如今我们已经确定地掌握了数字编码和通信的方法,当我们处理一个编码数据的时候,已经基本上没有了那种“不确定性”,而且有了错误还能够及时纠正,因而也就无需非要与“概率”硬拉关系,除非要搞纯粹的“数学理论推导”。
数字化时代,信息量的计算十分简单,只要数一数以数码方式表达的信息有多少位,就知道这个信息的信息量有多大了,不必麻烦仙农前辈。
2010-1-24
https://blog.sciencenet.cn/blog-340399-289913.html
上一篇:
信息是简单还是复杂的概念下一篇:
信息计量为什么