关于随机森林,以下说法不正确的是
A.随机森林只能用来分类,不能用来预测一个连续的数值型结果。
B.随机森林模型训练和应用的速度都较决策树慢
C.都不做K折交叉验证时,随机森林的性能评价比决策树的可靠
D.随机森林通常性能比决策树好
- · 有5位网友选择 A,占比45.45%
- · 有3位网友选择 D,占比27.27%
- · 有2位网友选择 B,占比18.18%
- · 有1位网友选择 C,占比9.09%
A.随机森林只能用来分类,不能用来预测一个连续的数值型结果。
B.随机森林模型训练和应用的速度都较决策树慢
C.都不做K折交叉验证时,随机森林的性能评价比决策树的可靠
D.随机森林通常性能比决策树好
A.这两种方法都可以用来做分类。
B.随机森林用来做分类,梯度提升用来做回归。
C.随机森林用来做回归,梯度提升用来做分类
D.两种方法都可以用来做回归。
A.随机森林既可以做分类,也可以做回归分析。
B.与单颗决策树模型相比,随机森林不容易产生过拟合。
C.与单颗决策树相比,随机森林需要更多的特征工程。
D.随机森林模型的准确率取决于少数准确度较好的少数决策树模型。
A.随机森林算法的分类精度不会随着决策树数量的增加而提高。
B.随机森林算法对异常值和缺失值不敏感。
C.随机森林算法不需要考虑过拟合问题。
D.决策树之间相关系数越低、每棵决策树分类精度越高的随机森林模型的分类效果越好。
A.GBDT算法比随机森林容易欠拟合
B.随机森林是并行计算的,而GBDT不能
C.GBDT算法比随机森林容易过拟合
D.GBDT与随机森林都是建立在CART树的基础之上的
A.随机森林是一种集成算法,可以使用CART等基学习器提高分类的性能。
B.类似装袋法的样本抽样方法,保证每棵树的学习样本集的多样性。
C.每颗树都是从属性集随机抽取一定数目的属性作为候选的特征。
D.随机森林训练后只需选择性能最好的树最为预测模型。
A.GBDT算法采用了Boosting技术,通过迭代更新样本的权重,串行生成序列的决策树集合。
B.随机森林的基学习器采用装袋法,多个基学习器可以并行执行。
C.随机森林的准确度一般好于GBDT算法的准确度。
D.随机森林和GBDT都是决策树的集成模型。
A.Bagging、Boosting、Stacking
B.Bagging、Ababoost、Stacking
C.Bagging、Ababoost、随机森林
D.Ababoost、随机森林、Stacking
对于随机森林和GradientBoostingTrees,下面说法正确的是()
1.在随机森林的单个树中,树和树之间是有依赖的,而GradientBoostingTrees中的单个树之间是没有依赖的.
2.这两个模型都使用随机特征子集,来生成许多单个的树
3.我们可以并行地生成GradientBoostingTrees单个树,因为它们之间是没有依赖的,GradientBoostingTrees训练模型的表现总是比随机森林好
A.2
B.1and2
C.1,3and4
D.2and4
为了保护您的账号安全,请在“简答题”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!