![](https://lstatic.shangxueba.com/jiandati/pc/images/pc_jdt_tittleico.png)
当神经网络训练中出现了欠拟合请款,可采用以下哪些方法进行优化?
A.增加训练数据
B.增加模型层数或单元数
C.延长训练时间
D.采用规则化方法
![](https://lstatic.shangxueba.com/jiandati/pc/images/jdt_q_ckda.png)
![](https://lstatic.shangxueba.com/jiandati/pc/images/jdt_panel_vip.png)
![](https://lstatic.shangxueba.com/jiandati/pc/images/jdt_q_wyda.png)
- · 有3位网友选择 B,占比33.33%
- · 有3位网友选择 C,占比33.33%
- · 有3位网友选择 A,占比33.33%
A.增加训练数据
B.增加模型层数或单元数
C.延长训练时间
D.采用规则化方法
A.复杂的模型时容易发生欠拟合问题
B.神经网络不会出现过拟合问题
C.正则化方法可以减少过拟合问题
D.增加数据量不能减少过拟合问题
A.通过正则化可以减少网络参数的取值或个数,一定程度可能减少过拟合
B.通过增加数据扰动的数据增强增加了神经网络的过拟合
C.利用L1或L2正则化可以使权重衰减,从而一定程度上减少过拟合
D.在神经网络训练过程中类似dropout减少神经元或相关链接权的数量
A.欠拟合一般是由于样本集合太大而造成的
B.欠拟合时,增加模型的复杂度,或者增加输入特征的个数,可有望改善
C.过拟合时,增加训练集样本个数,可有望改善
D.过拟合时,减小模型复杂度,可有望改善
A.当新的数据量少且数据与原数据集类似,可以对输出层训练即可,不需要对模型参数做过多的调整。
B.使用预训练模型意味着难以自由改变网络结构和参数,限制了其应用场合。
C.当新数据量比较大,且数据与原数据类似,可对预训练模型的所有层以较大的学习率微调。
D.当新数据量少,且数据和原数据集差异较大,那么除了对输出层微调外,还要对顶层以下的层数进行大调。
A、权重归一化
B、dropout
C、batch nomalization
D、增加更多的隐层数,提高网络的深度,深度增大性能也会不断提升
A.神经网络训练过程是拟合训练数据模式的过程
B.神经网络训练后很容易得到分类的规则
C.神经网络可用于分类和聚类
D.神经网络模型的分类能力比决策树好
为了保护您的账号安全,请在“简答题”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!