下面有关卷积神经网络的说法正确的是哪个?
A.卷积核越大越好。
B.不同卷积层或同一卷积层只能用一种大小的卷积核。
C.在卷积层之前使用池化操作,可以减少卷积层参数量。
D.类似AlexNet网络使用的分组卷积可以增加卷积层的参数量。
- · 有4位网友选择 C,占比50%
- · 有3位网友选择 B,占比37.5%
- · 有1位网友选择 A,占比12.5%
A.卷积核越大越好。
B.不同卷积层或同一卷积层只能用一种大小的卷积核。
C.在卷积层之前使用池化操作,可以减少卷积层参数量。
D.类似AlexNet网络使用的分组卷积可以增加卷积层的参数量。
B、每个卷积核在遍历整个图像的时候,卷积核的参数是变化的
C、图像的空间联系是局部像素较为稀疏,而距离较远的像素相关性较强
D、图像的空间联系是局部像素较为紧密,而距离较远的像素相关性较强
A、取Tanh或Sigmoid函数作为激活函数,做梯度下降时,偏导数是一堆小数在做乘法,容易导致网络梯度消失。
B、Tanh函数相对于Sigmoid函数来说梯度较小,收敛速度更快更慢
C、Sigmoid函数相对于Tanh函数来说更容易导致梯度消失
D、ReLU可以减少循环神经网络的梯度消失问题
A、两种激活函数的作用是相似的
B、Sigmoid函数决定什么值将要更新
C、Tanh函数对输入进行加工确定新的输出
D、两种激活函数共同确定有多少新信息可以流转下去
A、训练可能不稳定、梯度消失
B、可以产生清晰逼近真实的样本
C、广泛应用于监督式学习领域
D、一般由一个生成网络与一个判别网络组成
A、(a)(c)(b)
B、(a)(b)(c)
C、(c)(b)(a)
D、(c)(a)(b)
A、判别网络和生成网络的训练是并行的
B、判别网络和生成网络的代价函数是相同的,目标是一致的
C、类似于卷积神经网络,生成对抗网络的训练也需要很多真实的样本
D、在训练时,需要平衡判别网络和生成网络的能力
为了保护您的账号安全,请在“简答题”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!