对于65x65x6的输入特征图,用32个5*5的卷积核(过滤器)进行卷积,步幅为2,padding值为2,得到的特征图大小是哪个?
A.33*33*32
B.32*32*32
C.65*65*12
D.32*32*5
- · 有3位网友选择 C,占比37.5%
- · 有2位网友选择 A,占比25%
- · 有2位网友选择 D,占比25%
- · 有1位网友选择 B,占比12.5%
A.33*33*32
B.32*32*32
C.65*65*12
D.32*32*5
A、32*30*20
B、27*30*20
C、32*28*6
D、36*34*20
A、批归一化(batch normalization)
B、动态的学习步长调整,例如Adam
C、冲量项
D、提高mini-batch中的样本个数
A、大的卷积核对应的感受野比较大,更容易获得图像的特征
B、小的卷积核级联的效果等价于大卷积核的效果,但权重等参数会大大减少
C、过大的卷积核对应大量的参数,卷积神经网络不容易出现过拟合
D、小的卷积核可以获得图像比较细致的特征,它们组合起来可能降低网络的分类准确率
A、减少不同输入特征数据量纲的差别
B、使得第一个隐层的输入不至于过大或过小,提高网络训练的收敛速度
C、降低网络的计算量
D、减少网络的过拟合
A、卷积核中的取值都是事先人工设计的,在网络的训练过程中不变化
B、共享权重大大减少了参数的个数,降低了网络的复杂度
C、通过增加卷积核的大小和通道的个数,可以提升卷积神经网络特征获取的能力
D、卷积核越大,即感受野越大,网络需要优化的参数越少,训练速度越快
A、卷积层的输入特征图的通道数和输出特征图的通道数是相同的
B、通道数越多,获得的特征图越多,网络获得的特征越充分
C、随着卷积网络深度的增加,一般使用更小的卷积核和更多的通道,兼顾训练速度和网络分类性能
D、在卷积操作时,每个卷积核要对输入特征图的所有通道分别做卷积后求和,得到对应的新特征图
A、卷积核的高和宽不一定是相等的,且一般大小取奇数
B、在特征图padding时,各方向的填充像素数不一定相同(不对称填充),也不一定补0
C、在卷积神经网络中,卷积和池化的作用主要是分类,全连接层的作用主要是特征获取
D、卷积神经网络的输出层不一定用全连接网络,也可能得到比较好的性能
A、权重归一化
B、dropout
C、batch nomalization
D、增加更多的隐层数,提高网络的深度,深度增大性能也会不断提升
为了保护您的账号安全,请在“简答题”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!