itgle.com
更多“信源输出的各消息的自信息量的数学期望称为信源的平均自信息量。”相关问题
  • 第1题:

    一离散信源输出二进制符号,在()条件下,每个二进制符号携带1比特信息量;在()条件下,每个二进制符号携带的信息量小于1比特。


    参考答案:等概、不等概

  • 第2题:

    如果符号集中任一符号出现的概率为1,则其他符号出现的概率必然为零,信源的平均信息量(熵)则为()


    正确答案:

  • 第3题:

    自信息量表征信源中各个符号的不确定度,信源符号的概率越大,其自信息量越()


    正确答案:

  • 第4题:

    信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就(),获得的信息量就越小。


    正确答案:越大

  • 第5题:

    某一信源,不管它是否输出符号,只要这些符号具有某些概率特性,就有信息量。


    正确答案:错误

  • 第6题:

    平均互信息量I(X;Y)与信源熵和条件熵之间的关系是()。


    正确答案:(X;Y)=H(X)-H(X/Y)

  • 第7题:

    设A、B、C、D四个消息分別以概率1/4、1/8、1/8、1/2传送,信源的平均信息量为()bit。

    • A、1
    • B、1.5
    • C、1.75
    • D、2

    正确答案:C

  • 第8题:

    判断题
    信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就越小,获得的信息量就越小。
    A

    B


    正确答案:
    解析: 暂无解析

  • 第9题:

    判断题
    当离散信源中每个符号等概出现,而且各符号的出现为统计独立时,该信源的平均信息量最大。
    A

    B


    正确答案:
    解析: 暂无解析

  • 第10题:

    填空题
    如果符号集中任一符号出现的概率为1,则其他符号出现的概率必然为零,信源的平均信息量(熵)则为()

    正确答案:
    解析: 暂无解析

  • 第11题:

    单选题
    离散无记忆扩展信源的平均信息量H(SN)和未扩展信源平均信息量H(S)之间的关系为:( )
    A

    H(SN)=H(S)

    B

    H(SN)=(N-2)H(S)

    C

    H(SN)=(N-1)H(S)

    D

    H(SN)=NH(S)


    正确答案: B
    解析:

  • 第12题:

    单选题
    设A、B、C、D四个消息分別以概率1/4、1/8、1/8、1/2传送,信源的平均信息量为()bit。
    A

    1

    B

    1.5

    C

    1.75

    D

    2


    正确答案: C
    解析: 暂无解析

  • 第13题:

    当离散信源中每个符号等概出现,而且各符号的出现为统计独立时,该信源的平均信息量最大。()


    答案:对
    解析:

  • 第14题:

    设信源X包含4个不同离散消息,当且仅当X中各个消息出现的概率为()时,信源熵达到最大值,为(),此时各个消息的自信息量为()。


    正确答案:1/4;2; 2

  • 第15题:

    单符号离散信源的联合自信息量和条件自信息量都是非负的和单调递减的。


    正确答案:正确

  • 第16题:

    信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就越小,获得的信息量就越小。


    正确答案:错误

  • 第17题:

    互信息量I(X;Y)表示收到Y后仍对信源X的不确定度。


    正确答案:正确

  • 第18题:

    平均互信息量I(X;Y)对于信源概率分布p(xi)和条件概率分布p(yj/xi)都具有凸函数性。


    正确答案:正确

  • 第19题:

    填空题
    信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就(),获得的信息量就越小。

    正确答案: 越大
    解析: 暂无解析

  • 第20题:

    填空题
    自信息量表征信源中各个符号的不确定度,信源符号的概率越大,其自信息量越()

    正确答案:
    解析: 暂无解析

  • 第21题:

    判断题
    单符号离散信源的联合自信息量和条件自信息量都是非负的和单调递减的。
    A

    B


    正确答案:
    解析: 暂无解析

  • 第22题:

    填空题
    平均互信息量I(X;Y)与信源熵和条件熵之间的关系是()。

    正确答案: (X;Y)=H(X)-H(X/Y)
    解析: 暂无解析

  • 第23题:

    填空题
    设信源X包含4个不同离散消息,当且仅当X中各个消息出现的概率为()时,信源熵达到最大值,为(),此时各个消息的自信息量为()。

    正确答案: 1/4,2, 2
    解析: 暂无解析

  • 第24题:

    判断题
    某一信源,不管它是否输出符号,只要这些符号具有某些概率特性,就有信息量。
    A

    B


    正确答案:
    解析: 暂无解析