itgle.com
更多“平均互信息量I(X;Y)与信源熵和条件熵之间的关系是()。”相关问题
  • 第1题:

    互信息I(X;Y)与信息熵H(Y)的关系为:I(X;Y)()(大于、小于或者等于)H(Y)。


    正确答案:小于

  • 第2题:

    设信源X包含4个不同离散消息,当且仅当X中各个消息出现的概率为()时,信源熵达到最大值,为(),此时各个消息的自信息量为()。


    正确答案:1/4;2; 2

  • 第3题:

    简述离散信源和连续信源的最大熵定理。


    正确答案: 离散无记忆信源,等概率分布时熵最大。连续信源,峰值功率受限时,均匀分布的熵最大。平均功率受限时,高斯分布的熵最大。均值受限时,指数分布的熵最大。

  • 第4题:

    当随即变量X和Y相互独立时,条件熵等于信源熵。


    正确答案:正确

  • 第5题:

    互信息量I(X;Y)表示收到Y后仍对信源X的不确定度。


    正确答案:正确

  • 第6题:

    离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的()。


    正确答案:N倍

  • 第7题:

    平均互信息量I(X;Y)对于信源概率分布p(xi)和条件概率分布p(yj/xi)都具有凸函数性。


    正确答案:正确

  • 第8题:

    填空题
    如果符号集中任一符号出现的概率为1,则其他符号出现的概率必然为零,信源的平均信息量(熵)则为()

    正确答案:
    解析: 暂无解析

  • 第9题:

    判断题
    平均互信息量I(X;Y)对于信源概率分布p(xi)和条件概率分布p(yj/xi)都具有凸函数性。
    A

    B


    正确答案:
    解析: 暂无解析

  • 第10题:

    填空题
    设信源X包含4个不同离散消息,当且仅当X中各个消息出现的概率为()时,信源熵达到最大值,为(),此时各个消息的自信息量为()。

    正确答案: 1/4,2, 2
    解析: 暂无解析

  • 第11题:

    填空题
    互信息I(X;Y)与信息熵H(Y)的关系为:I(X;Y)()(大于、小于或者等于)H(Y)。

    正确答案: 小于
    解析: 暂无解析

  • 第12题:

    判断题
    离散无记忆序列信源中平均每个符号的符号熵等于单个符号信源的符号熵。
    A

    B


    正确答案:
    解析: 暂无解析

  • 第13题:

    如果符号集中任一符号出现的概率为1,则其他符号出现的概率必然为零,信源的平均信息量(熵)则为()


    正确答案:

  • 第14题:

    对于均值为0,平均功率受限的连续信源,信源的冗余度决定于平均功率的限定值P和信源的熵功率()。


    正确答案:之比

  • 第15题:

    离散无记忆序列信源中平均每个符号的符号熵等于单个符号信源的符号熵。


    正确答案:正确

  • 第16题:

    信源X的概率分布为P(X)={1/2,1/3,1/6},信源Y的概率分布为P(Y)={1/3,1/2,1/6},则信源X和Y的熵相等。


    正确答案:正确

  • 第17题:

    一个系统有序程度越高,则熵就越小,所含的信息量就越大;反之,无序程度越高,则熵就越大,信息量就越小。信息和熵是互补的,信息就是()。

    • A、负熵
    • B、熵
    • C、序参量
    • D、对称性

    正确答案:A

  • 第18题:

    条件熵和无条件熵的关系是:()

    • A、H(Y/X)<H(Y)
    • B、H(Y/X)>H(Y)
    • C、H(Y/X)≤H(Y)
    • D、H(Y/X)≥H(Y)

    正确答案:C

  • 第19题:

    判断题
    当随即变量X和Y相互独立时,条件熵等于信源熵。
    A

    B


    正确答案:
    解析: 暂无解析

  • 第20题:

    填空题
    平均互信息量I(X;Y)与信源熵和条件熵之间的关系是()。

    正确答案: (X;Y)=H(X)-H(X/Y)
    解析: 暂无解析

  • 第21题:

    判断题
    信源X的概率分布为P(X)={1/2,1/3,1/6},信源Y的概率分布为P(Y)={1/3,1/2,1/6},则信源X和Y的熵相等。
    A

    B


    正确答案:
    解析: 暂无解析

  • 第22题:

    单选题
    一个系统有序程度越高,则熵就越小,所含的信息量就越大;反之,无序程度越高,则熵就越大,信息量就越小。信息和熵是互补的,信息就是()。
    A

    负熵

    B

    C

    序参量

    D

    对称性


    正确答案: D
    解析: 暂无解析

  • 第23题:

    填空题
    离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的()。

    正确答案: N倍
    解析: 暂无解析