通信原理信息论
信息量I单位(bit)
I=−log2P(x)
平均信息量(或熵)H(x)单位(b/符号)
描述信源的不确定性:
H(x)=−i=1∑MP(xi)log2P(xi)
当每个符号等概率P(xi)=1/M独立出现时,不确定性最大,此时熵为:
Hmax=log2M
总信息量
I=n⋅H(x)
有效性和可靠性
1、有效性:信号带宽
2、 可靠性:输出信噪比NoSo
1、有效性:
η=BRB(Baud/Hz)
ηb=BRb((bit/s)/Hz)
其中RB为传码率,仅仅取决于每个码元持续时间(码元宽度)TB:
RB=TB1(Baud)
Rb为传信率,在符号等概率出现时有
Rb=RBlog2M
2、 可靠性:输出信噪比NoSo
Pe=传输的总码元数错误接收的码元数=NNe
Pb=传输的总比特数错误接收的比特数=IIe
关系:二进制时,有Pb=Pe,
M进制时,Pb<Pe