香农的信源编码定理告诉我们,一个随机变量X的最佳码的平均码长满足L<H(X)+1,这只是一个最佳的上界,而事实上
香农的信源编码定理告诉我们,一个随机变量X的最佳码的平均码长满足L<H(X)+1,这只是一个最佳的上界,而事实上在很多情况下编码的效率要差得多。例如X是一个二进制的随机变量,pX(1)=ε,则当ε→0时H(X)=H(ε)→0,而此时L=1。请找出一个随机变量,其熵为2,同时其相应最佳码的平均码长为3。
香农的信源编码定理告诉我们,一个随机变量X的最佳码的平均码长满足L<H(X)+1,这只是一个最佳的上界,而事实上在很多情况下编码的效率要差得多。例如X是一个二进制的随机变量,pX(1)=ε,则当ε→0时H(X)=H(ε)→0,而此时L=1。请找出一个随机变量,其熵为2,同时其相应最佳码的平均码长为3。
A.一定小于H(X)/logm
B.一定小于H(X)/logm+1
C.一定大于H(X)/logm
D.一定大于H(X)/logm+1
A.游程编码和算术编码都属于无失真信源编码。
B.变换编码和预测编码属于限失真信源编码。
C.无失离散真信源编码的效率随着序列长度的增加而降低。
D.限失真信源编码定理告诉我们,当信源压缩的信息率R>R(D)时,总会找到一种信源压缩编码的方法,使得其平均失真小于D。
A.1952年,香农发展并证明了信道容量的迭代算法。
B.1959年,香农首先提出了率失真函数和率失真信源编码定理,才发展成为信息率失真编码理论。
C.哈特莱用消息的可能数目的对数来度量消息中所含有的信息量,为香农创立信息论提供了思路。
D.偶然性、熵函数引进物理学为信息论的产生提供了理论前提。
A.偶然性、熵函数引进物理学为信息论的产生提供了理论前提。
B.1952年,香农发展并证明了信道容量的迭代算法。
C.哈特莱用消息可能数目的对数来度量消息中所含有的信息量,为香农创立信息论提供了思路。
D.1959年,香农首先提出率失真函数和率失真信源编码定理,才发展成为信息率失真编码理论。
A.30kbps
B.6000bps
C.3000bps
D.15kbps
A.量化、编码、采样
B.编码、量化、采样
C.采样、量化、编码
D.采样、编码、量化
为了保护您的账号安全,请在“简答题”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!