搜题
网友您好,请在下方输入框内输入要搜索的题目:
搜题
题目内容 (请给出正确答案)
提问人:网友lanpishu 发布时间:2022-01-07
[单选题]

下面关于信息熵的描述中错误的是:

A.热力学中的热熵是表示分子状态混乱程度的物理量。信息熵概念的提出受到了热力学中的热熵的概念的启发

B.信息熵由Shannon提出,信息熵的概念可以用来描述信源的不确定度

C.信息熵是通信领域的概念,和机器学习以及深度学习无关

D.在深度学习中,经常使用交叉熵来表征两个变量概率分布P, Q(假设P表示真实分布, Q为模型预测的分布)的差异性。

参考答案
简答题官方参考答案 (由简答题聘请的专业题库老师提供的解答)
查看官方参考答案
网友提供的答案
位网友提供了参考答案,
查看全部
  • · 有3位网友选择 A,占比33.33%
  • · 有3位网友选择 D,占比33.33%
  • · 有2位网友选择 B,占比22.22%
  • · 有1位网友选择 C,占比11.11%
匿名网友[48.***.***.59]选择了 D
1天前
匿名网友[63.***.***.221]选择了 D
1天前
匿名网友[48.***.***.59]选择了 D
1天前
匿名网友[150.***.***.249]选择了 B
1天前
匿名网友[63.***.***.221]选择了 D
1天前
匿名网友[244.***.***.196]选择了 D
1天前
匿名网友[252.***.***.222]选择了 A
1天前
匿名网友[105.***.***.139]选择了 A
1天前
匿名网友[237.***.***.52]选择了 C
1天前
匿名网友[74.***.***.14]选择了 B
1天前
匿名网友[157.***.***.68]选择了 A
1天前
匿名网友[150.***.***.249]选择了 B
1天前
匿名网友[150.***.***.249]选择了 B
1天前
匿名网友[63.***.***.221]选择了 D
1天前
匿名网友[244.***.***.196]选择了 D
1天前
匿名网友[252.***.***.222]选择了 A
1天前
匿名网友[105.***.***.139]选择了 A
1天前
匿名网友[237.***.***.52]选择了 C
1天前
匿名网友[74.***.***.14]选择了 B
1天前
匿名网友[157.***.***.68]选择了 A
1天前
提交我的答案
登录提交答案,可赢取奖励机会。
更多“下面关于信息熵的描述中错误的是:”相关的问题
第1题
下面关于数据压缩的概念中,错误的是( )。

A、从信息论的角度来看,压缩就是去掉信息中的冗余,即保留不确定的信息,去除确定的信息(可推知的)。

B、根据解码后数据与原始数据是否完全一致,数据压缩可以分为两大类:有损压缩和无损压缩。

C、图像信息之所以能进行压缩,是因为图像本身通常存在很大的冗余量。

D、在有损压缩中,解压缩后重构的数据是对原始对象的完整复制。

点击查看答案
第2题
线性回归中计算损失函数时加入正则化项后的表达式为 则下列说法正确的有

A、等号右边第一项的目标是使模型能更好地拟合训练数据

B、等号右边第二项是正则化项,目的是控制过拟合现象

C、λ 是正则化参数(regularization parameter),用于控制等号右边两项的平衡

D、过拟合是指学习到的模型在训练集上也许误差较小,但是对于测试集中之前未见样本的预测却未必有效。或者通俗地说,模型过度学习了训练数据。

点击查看答案
第3题
下面关于JS散度和KL散度的区别的说法错误的是

A、KL散度不具对称性

B、JS散度具备对称性

C、JS散度在KL散度的基础上进行了改进

D、二者都不具备对称性

点击查看答案
第4题
感知机通过使用激励函数(activation function )处理解释变量和模型参数的线性组合对样本分类。Rosenblatt最初的感知器用的激励函数是

A、sigmoid函数

B、阶跃函数

C、tanh函数

D、relu函数

点击查看答案
第5题
关于感知机(perceptron),下列说法错误的是

A、感知机由Rosenblatt于1957年提出,是神经网络的基础

B、感知机是二分类的线性分类模型,属于有监督学习算法

C、感知机是二分类的线性分类模型,属于无监督学习算法

D、感知机的预测是用学习得到的感知机模型对新的实例进行预测的,因此属于判别模型

点击查看答案
第6题
下列哪种概念表达了在已知随机变量Y的条件下随机变量X的不确定性?

A、交叉熵

B、互信息

C、条件熵

D、相对熵

点击查看答案
第7题
对于下面的一段python程序,下面的说法错误的是 import numpy as np p=np.asarray([0.65,0.25,0.07,0.03]) q=np.array([0.6,0.25,0.1,0.05]) kl1=np.sum(p*np.log(p/q)) kl2=np.sum(q*np.log(q/p))

A、程序最后两行的计算结果是相等的

B、程序最后两行的计算结果是不相等的

C、程序最后两行的的目的是计算相对熵,其是交叉熵与信息熵的差值

D、程序的目的是计算相对熵,其不具备对称性

点击查看答案
第8题
下图是信息熵相关概念的文氏图解,其中左侧圆 (既包括红色也包括紫色的区域)为变量X自身的熵H(X)。其中红色区域为条件熵conditional entropy H(X|Y)。右侧圆(既包括蓝色也包括紫色的区域)为变量Y自身的熵H(Y), 其中蓝色区域为条件熵conditional entropy H(Y|X)。则中间的紫色的区域为?

A、交叉熵

B、联合熵

C、互信息

D、相对熵

点击查看答案
第9题
下列关于反向传播(backpropagation)算法的描述中,错误的是

A、反向传播算法的学习过程由正向传播过程和反向传播过程组成,不存在迭代过程

B、在正向传播过程中,输入信息通过输入层经隐含层,逐层处理并传向输出层

C、如果经过正向传播,在输出层得不到期望的输出值,则利用输出与期望计算目标函数(损失函数),转入反向传播

D、反向传播需要逐层求出目标函数对各神经元权值的偏导数,构成目标函数对权值向量的梯度,作为修改权值的依据。在机器学习中,训练数据通常是给定和固定的,而权重参数等是作为变量并进行更新的

点击查看答案
第10题
对于下面的一段python程序,下面的说法正确的是 import numpy as np import scipy.stats p=np.asarray([0.65,0.25,0.07,0.03]) q=np.array([0.6,0.25,0.1,0.05]) M=(p+q)/2 result=0.5*scipy.stats.entropy(p, M)+0.5*scipy.stats.entropy(q, M)

A、最后一行是计算p和q之间的KL散度

B、最后一行是计算p和q之间的JS散度

C、最后一行是计算p和q之间的条件熵

D、最后一行是计算p和q之间的交叉熵

点击查看答案
重要提示: 请勿将账号共享给其他人使用,违者账号将被封禁!
查看《购买须知》>>>
重置密码
账号:
旧密码:
新密码:
确认密码:
确认修改
购买搜题卡查看答案
购买前请仔细阅读《购买须知》
请选择支付方式
微信支付
支付宝支付
点击支付即表示你同意并接受《服务协议》《购买须知》
立即支付
搜题卡使用说明

1. 搜题次数扣减规则:

功能 扣减规则
基础费
(查看答案)
加收费
(AI功能)
文字搜题、查看答案 1/每题 0/每次
语音搜题、查看答案 1/每题 2/每次
单题拍照识别、查看答案 1/每题 2/每次
整页拍照识别、查看答案 1/每题 5/每次

备注:网站、APP、小程序均支持文字搜题、查看答案;语音搜题、单题拍照识别、整页拍照识别仅APP、小程序支持。

2. 使用语音搜索、拍照搜索等AI功能需安装APP(或打开微信小程序)。

3. 搜题卡过期将作废,不支持退款,请在有效期内使用完毕。

请使用微信扫码支付(元)

订单号:

遇到问题请联系在线客服

请不要关闭本页面,支付完成后请点击【支付完成】按钮
遇到问题请联系在线客服
恭喜您,购买搜题卡成功 系统为您生成的账号密码如下:
重要提示:请勿将账号共享给其他人使用,违者账号将被封禁。
发送账号到微信 保存账号查看答案
怕账号密码记不住?建议关注微信公众号绑定微信,开通微信扫码登录功能
警告:系统检测到您的账号存在安全风险

为了保护您的账号安全,请在“简答题”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!

- 微信扫码关注简答题 -
警告:系统检测到您的账号存在安全风险
抱歉,您的账号因涉嫌违反简答题购买须知被冻结。您可在“简答题”微信公众号中的“官网服务”-“账号解封申请”申请解封,或联系客服
- 微信扫码关注简答题 -
请用微信扫码测试
欢迎分享答案

为鼓励登录用户提交答案,简答题每个月将会抽取一批参与作答的用户给予奖励,具体奖励活动请关注官方微信公众号:简答题

简答题官方微信公众号

简答题
下载APP
关注公众号
TOP