首页 > 试题广场 >

下列说法正确的是()

[不定项选择题]
下列说法正确的是()
  • 当训练样本数量趋向于无穷大时,在该数据集上训练的模型变化趋是偏差变小
  • bagging降低方差,boosting降低偏差
  • bagging降低偏差,boosting降低方差
  • 泛化误差=方差+偏差+噪声
bagging算法采用投票法,集成所有弱分类器的结果,以服从多数的原则产生最终预测结果。
boosting算法的本质是将弱分类器提升为强分类器,构造弱分类器不断提高错分类样本的权值,降低正确分类样本的权值。
bias-variance权衡方面,boosting更关注bias,即总分类器的拟合能力更好;bagging更关注variance,即总分类器对数据扰动的承受能力更强。
参考资料:正如Leo Breiman指出:与bagging模型想比,boosting方法可导致的偏置和方差减少,而boosting方法在实践中以其高方差而闻名,即对训练数据有过拟合的倾向。[1]
[1]An improvement of AdaBoost to avoid overfitting, G. Raetsch, T. Onoda, and K.R.Muller. Proceedings of the International Conference on Neural Information Processing,CiteSeer,1998
编辑于 2021-10-25 21:44:54 回复(0)
A训练样本增多,方差减小,与偏差无关
发表于 2021-03-02 20:20:56 回复(1)