下面有关神经网络梯度消失说法错误的是()
A.当神经网络的隐层增加时,就容易发生梯度消失问题,表现在靠近输入层的权重难以更新。
B.网络梯度消失可能导致有些权重难以更新,导致网路训练失败。
C.网络梯度消失可以通过改变隐层和输出层的神经元激活函数减弱。
D.网络梯度消失可以通过减少隐层神经元的个数减弱。
- · 有3位网友选择 B,占比33.33%
- · 有3位网友选择 A,占比33.33%
- · 有2位网友选择 D,占比22.22%
- · 有1位网友选择 C,占比11.11%
A.当神经网络的隐层增加时,就容易发生梯度消失问题,表现在靠近输入层的权重难以更新。
B.网络梯度消失可能导致有些权重难以更新,导致网路训练失败。
C.网络梯度消失可以通过改变隐层和输出层的神经元激活函数减弱。
D.网络梯度消失可以通过减少隐层神经元的个数减弱。
A、对激活函数的输出结果进行范围限定,有助于梯度平稳下降,而ReLU输出范围无限的函数会导致梯度消失问题。
B、ReLU函数中所有负值均被截断为结果0,从而导致特征丢失,可适当调高学习率避免此类情况。
C、在神经网络训练中,动态调整学习率综合考虑当前点的梯度、最近几次训练误差的降低情况等效果更好。
D、随机梯度下降(SGD)每次更新只随机取一个样本,按照固定学习率计算梯度,所以速度较快。
A、利用神经网络对两类问题进行分类时,可以用一个输出节点来实现。
B、神经网络实现多类问题的分类时可以用多个神经网络组合来实现。
C、利用神经网络来实现多类问题的分类时,可以采用一个具有的多个输出节点的神经网络来实现。
D、在利用神经网络进行分类时,神经网络的输入节点的个数多于输入的特征数量。
A、1-f(x)
B、f(x)[1-f(x)]
C、1/f(x)-1
D、f(x)[1+f(x)]
A、8*8*12
B、8*8*8
C、14*14*12
D、14*14*8
A、预剪枝是在节点分枝前确定是否要继续树增长,可以比较分枝前后的准确率确定。
B、预剪枝可能导致欠拟合,因此要通过训练样本检验确定合适的树深度。
C、C4.5算法可以处理回归问题。
D、C4.5决策树的目标函数是信息增益。
为了保护您的账号安全,请在“简答题”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!