平均互信息量I(X;Y)与信源熵和条件熵之间的关系是()。
第1题:
互信息I(X;Y)与信息熵H(Y)的关系为:I(X;Y)()(大于、小于或者等于)H(Y)。
第2题:
设信源X包含4个不同离散消息,当且仅当X中各个消息出现的概率为()时,信源熵达到最大值,为(),此时各个消息的自信息量为()。
第3题:
简述离散信源和连续信源的最大熵定理。
第4题:
当随即变量X和Y相互独立时,条件熵等于信源熵。
第5题:
互信息量I(X;Y)表示收到Y后仍对信源X的不确定度。
第6题:
离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的()。
第7题:
平均互信息量I(X;Y)对于信源概率分布p(xi)和条件概率分布p(yj/xi)都具有凸函数性。
第8题:
第9题:
对
错
第10题:
第11题:
第12题:
对
错
第13题:
如果符号集中任一符号出现的概率为1,则其他符号出现的概率必然为零,信源的平均信息量(熵)则为()
第14题:
对于均值为0,平均功率受限的连续信源,信源的冗余度决定于平均功率的限定值P和信源的熵功率()。
第15题:
离散无记忆序列信源中平均每个符号的符号熵等于单个符号信源的符号熵。
第16题:
信源X的概率分布为P(X)={1/2,1/3,1/6},信源Y的概率分布为P(Y)={1/3,1/2,1/6},则信源X和Y的熵相等。
第17题:
一个系统有序程度越高,则熵就越小,所含的信息量就越大;反之,无序程度越高,则熵就越大,信息量就越小。信息和熵是互补的,信息就是()。
第18题:
条件熵和无条件熵的关系是:()
第19题:
对
错
第20题:
第21题:
对
错
第22题:
负熵
熵
序参量
对称性
第23题: