首页 > 试题广场 >

关于集成学习以下说法正确的是?

[不定项选择题]

关于集成学习以下说法正确的是?

  • Adaboost相对于单个弱分类器而言通过Boosting增大了模型的Bias
  • 随机森林相对于单个决策树而言通过Bagging增大了模型的Variance
  • 我们可以借鉴类似Bagging的思想对GBDT模型进行一定的改进,例如每个分裂节点只考虑某个随机的特征子集或者每棵树只考虑某个随机的样本子集这两个方案都是可行的
  • GBDT模型无法在树维度通过并行提速,因为基于残差的训练方式导致第i棵树的训练依赖于前i-1棵树的结果,故树与树之间只能串行
Adaboost 降低了偏差,增大了方差。
Bagging  降低了方差,增大了偏差.
c选项类似于Bagging 于boosting的综合体
发表于 2018-09-26 16:46:38 回复(0)
Bagging会降低variance
发表于 2018-04-04 06:04:06 回复(0)