当前位置:婀娜女性网>美好生活>心理>

平均信息量怎么计算

心理 阅读(1.15W)
平均信息量怎么计算

平均信息量的计算公式是I=log2(1/p),其中p是概率,log2指以二为底的对数。

但对信息量作深入而系统研究,还是从1948年C.E.香农的奠基性工作开始的。

在信息论中,认为信源输出的消息是随机的。信息量与信息熵在概念上是有区别的。

在收到符号之前是不能肯定信源到底发送什么符号,通信的目的就是使接收者在收到符号后,解除对信源存在的疑义(不确定度),使不确定度变为零。

这说明接收者从发送者的信源中获得的信息量是一个相对的量(H(U)-0)。

而信息熵是描述信源本身统计特性的物理量,它表示信源产生符号的平均不确定度,不管有无接收者,它总是客观存在的量。

单个字符的概率P1=1/5*1/2=1/10 连续两个字符的概率P2 = 1/20*1/2=1/40

同概率平均信息量:H(p)=∑P(x)log1/p(x)

所以,H(p)=5*1/10*log10 + 20*1/40*log40

=1.66+2.16

=3.82 bit/字符

符号周期为T

符号速率R1=1/T

平均信息速率为R2=R1*H(p)=3.82/T

符号周期自带