张成岗(CZ)的博客世界分享 http://blog.sciencenet.cn/u/zcgweb 脑损伤与脑保护;神经认知;生物信息;蛋白质组;辐射损伤与防护

博文

[转载]信息熵的计算公式

已有 21652 次阅读 2021-3-9 11:43 |系统分类:科研笔记|文章来源:转载

https://zhidao.baidu.com/question/1702712671714252340.html?qbl=relate_question_2&word=entropy%BA%AF%CA%FD%B5%C4c%B4%FA%C2%EB


信息熵的计算公式,麻烦通俗地讲一下。 5

 我来答 

分享

 举报

3个回答

#热议# 你觉得这辈子有希望看到996消失吗?

更上百层楼 

高能答主

 
2019-10-09 · 没有比挣大米更让我开心的了

信息熵的计算公式:H(x) = E[I(xi)] = E[ log(2,1/P(xi)) ] = -∑P(xi)log(2,P(xi)) (i=1,2,..n)。

其中,x表示随机变量,与之相对应的是所有可能输出的集合,定义为符号集,随机变量的输出用x表示。P(x)表示输出概率函数。变量的不确定性越大,熵也就越大,把它搞清楚所需要的信息量也就越大。

信息熵是数学方法和语言文字学的结合,基本计算公式是未H = - LOG2(P)。其中,H 表示信息熵,P 表示某种语言文字的字符出现的概率,LOG2是以二为底的对数,用的是二进制,因而,信息熵的单位是比特(BIT,即二进制的0和1)。信息熵值就是信息熵的数值。

扩展资料:

信息熵的相关介绍:

一个信源发送出什么符号是不确定的,衡量它可以根据其出现的概率来度量。概率大,出现机会多,不确定性小;反之不确定性就大。不确定性函数f是概率P的减函数;两个独立符号所产生的不确定性应等于各自不确定性之和。

人们常常说信息很多,或者信息较少,但却很难说清楚信息到底有多少。比如一本五十万字的中文书到底有多少信息量。

直到1948年,香农提出了“信息熵”的概念,才解决了对信息的量化度量问题。信息熵这个词是C.E.香农从热力学中借用过来的。热力学中的热熵是表示分子状态混乱程度的物理量。香农用信息熵的概念来描述信源的不确定度。信息论之父克劳德·艾尔伍德·香农第一次用数学语言阐明了概率与信息冗余度的关系。

参考资料来源:百度百科-信息熵

参考资料来源:百度百科-信息熵值




https://blog.sciencenet.cn/blog-40692-1275761.html

上一篇:[转载]上夸克和下夸克有什么区别
下一篇:[转载]信息熵:这个词是C.E.Shannon(香农)从热力学中借用过来的,用来描述信源的不确定度
收藏 IP: 124.207.31.*| 热度|

0

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-5-20 13:21

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部