itgle.com

某信源符号集由A,B,C,D和E组成,设每一符号独立出现,其出现概率分别为1/4,1/8,1/8,3/16,和5/16。若每秒传输1000个字符,试求(1)该信源符号的平均信息量。(2)1h内传送的平均信息量(3)若信源等概发送每个符号,求1h传送的信息量。

题目

某信源符号集由A,B,C,D和E组成,设每一符号独立出现,其出现概率分别为1/4,1/8,1/8,3/16,和5/16。若每秒传输1000个字符,试求(1)该信源符号的平均信息量。(2)1h内传送的平均信息量(3)若信源等概发送每个符号,求1h传送的信息量。


相似考题
更多“某信源符号集由A,B,C,D和E组成,设每一符号独立出现,其出现概率分别为1/4,1/8,1/8,3/16,和5/16。若每秒传输1000个字符,试求(1)该信源符号的平均信息量。(2)1h内传送的平均信息量(3)若信源等概发送每个符号,求1h传送的信息量。”相关问题
  • 第1题:

    假设信源是由q个离散符号S1,S2,…,Si,…Sq所组成的符号集合,集合中的每个符号是独立的,其中任一个符号出现的概率为P(Si),并满足∑P(Si)=1。那么符号Si含有的信息量I(Si)等于( ),单位是( )

    A. –logq P(Si)

    B. logq P(Si)

    C. -log2 P(Si)

    D. log2 P(Si)@@@SXB@@@A.比特

    B.信息熵

    C. dB

    D.无单位


    正确答案:C,A

  • 第2题:

    离散信源输出4个不同符号,若各符号概率分别为1/2,1/4,1/8,1/8,则该信源的熵为()。

    A.1.5bit/sign
    B.1.875bit/sign
    C.1.75bit/sign
    D.1bit/sign

    答案:C
    解析:

  • 第3题:

    离散信源输出5个不同符号,若各符号概率分别为1/2,1/4,1/8,1/16,1/16,则该信源的熵为()。

    A.1.5bit/sign
    B.1.875bit/sign
    C.2bit/sign
    D.1bit/sign

    答案:B
    解析:

  • 第4题:

    当离散信源中每个符号等概出现,而且各符号的出现为统计独立时,该信源的平均信息量最大。()


    答案:对
    解析:

  • 第5题:

    设有四个消息A、B、C、D分别以概率1/4,1/8,1/8,1/2传送,每一消息的出现是独立的。试计算其平均信息量。


    正确答案: I平均=1/4*log2 4+1/8 *log28+1/8 *log28+1/2 *log22=1.75bit

  • 第6题:

    单符号离散信源的联合自信息量和条件自信息量都是非负的和单调递减的。


    正确答案:正确

  • 第7题:

    某一信源,不管它是否输出符号,只要这些符号具有某些概率特性,就有信息量。


    正确答案:错误

  • 第8题:

    某信源由4个不同符号组成,每个符号出现的概率相同,信源每秒发出100个符号,则该信源的平均信息速率为()。

    • A、400b/s
    • B、100b/s
    • C、300b/s
    • D、200b/s

    正确答案:D

  • 第9题:

    填空题
    自信息量表征信源中各个符号的不确定度,信源符号的概率越大,其自信息量越()

    正确答案:
    解析: 暂无解析

  • 第10题:

    判断题
    当离散信源中每个符号等概出现,而且各符号的出现为统计独立时,该信源的平均信息量最大。
    A

    B


    正确答案:
    解析: 暂无解析

  • 第11题:

    填空题
    如果符号集中任一符号出现的概率为1,则其他符号出现的概率必然为零,信源的平均信息量(熵)则为()

    正确答案:
    解析: 暂无解析

  • 第12题:

    单选题
    某信源的符号集由A、B、C、D和E组成,设每一符号独立出现,其出现概率分别为1/4、1/8、1/8、3/16和5/16,平均信息量为()bit/符号。
    A

    2.20

    B

    2.23

    C

    2.44

    D

    2.50


    正确答案: D
    解析: 暂无解析

  • 第13题:

    假设信源是由q个离散符号S1,S2,…,S1…,Sq所组成的符号集合,集合中的每个符号是独立的,其中任一个符号Si出现的概率为P(Si),并满足∑P(Si)=1。那么符号 Si含有的信息量I(si)等于(31),单位是(32)。

    A.-logqP(Si)

    B.logqP(Si)

    C.-log2P(Si)

    D.log2P(Si)


    正确答案:C
    解析:信息与“不确定性”紧密相关,是对于接收者来说事先不知道的消息。在有效的通信中,信源将要发送的信号是不确定的,接收者在接收到信号后不确定性减小或消失,那么接收者从不知到知而获得信息。信息量的定义如下:假设信源是由q个离散符号S1,S2,…,Si…,Sq所组成的符号集合,集合中的每个符号是独立的,其中任一个符号Si出现的概率为P(Si),并满足∑P(Si)=1。那么符号 Si含有的信息量I(Si)等于log2(1/P(Si)),单位为比特(bit),而1bit等于大概二元制信源每一个符号的信息量。直观上可以理解为信号出现的概率越小,信息量就越大,信号出现的概率越大,信息量就越小,如果信号出现的概率是1(没有任何不确定性),信息量就是0。将信息的测度纳入概率的范畴,符合人们对信息量的理解。

  • 第14题:

    某二进制信源各符号独立出现,若“1”符号出现的概率为3/4,则“0”符号的信息量为()bit。

    A.1
    B.2
    C.1.5
    D.2.5

    答案:B
    解析:

  • 第15题:

    已知二进制离散信源(0,1),每一符号波形等概独率立发送,传送二进制波形之一的信息量为()。

    A.1bit/s
    B.1bit
    C.2bit/s
    D.2bit

    答案:B
    解析:

  • 第16题:

    如果符号集中任一符号出现的概率为1,则其他符号出现的概率必然为零,信源的平均信息量(熵)则为()


    正确答案:

  • 第17题:

    自信息量表征信源中各个符号的不确定度,信源符号的概率越大,其自信息量越()


    正确答案:

  • 第18题:

    离散无记忆序列信源中平均每个符号的符号熵等于单个符号信源的符号熵。


    正确答案:正确

  • 第19题:

    一离散信源由A,B,C,D四个符号组成,它们出现的概率分别为1/2,1/4,且每个符号的出现都是独立的,消息{AAAAABBACCDDB}熵为2bit/符号。╳81.信息论的创始人是维纳。


    正确答案:错误

  • 第20题:

    二元离散信源只有“0",“1”两种符号,若“0”出现概率为1/3,出现“1”的信息量是()。

    • A、0.583(bit)
    • B、0.585(bit)
    • C、0.587(bit)
    • D、0.589(bit)

    正确答案:B

  • 第21题:

    单选题
    离散信源输出五个不同符号,若各符号概率分别为1/2,1/4,1/8,1/16,1/16,则该信源的值为()
    A

    1.800bit/符号

    B

    1.825bit/符号

    C

    1.850bit/符号

    D

    1.875bit/符号


    正确答案: C
    解析:

  • 第22题:

    问答题
    设有四个消息A、B、C、D分别以概率1/4,1/8,1/8,1/2传送,每一消息的出现是独立的。试计算其平均信息量。

    正确答案: I平均=1/4*log2 4+1/8 *log28+1/8 *log28+1/2 *log22=1.75bit
    解析: 暂无解析

  • 第23题:

    单选题
    某信源由4个不同符号组成,每个符号出现的概率相同,信源每秒发出100个符号,则该信源的平均信息速率为()。
    A

    400b/s

    B

    100b/s

    C

    300b/s

    D

    200b/s


    正确答案: A
    解析: 暂无解析

  • 第24题:

    单选题
    符号集为A、B、C、D、E,相互独立,相应概率为,1/2、1/4、1/8、1/16、1/16其平均信息量为:( )
    A

    1.800bit/符号

    B

    1.825bit/符号

    C

    1.850bit/符号

    D

    1.875bit/符号


    正确答案: B
    解析: