首页 > 试题广场 >

以下说法中错误的是

[单选题]
以下说法中错误的是
  • AdaBoost训练过程中基分类器的分类误差率是被该分类器误分类样本的权重之和
  • 随机森林训练过程中对样本进行有放回抽样
  • Bagging方法主要关注降低偏差,而Boosting方法主要关注降低方差
  • XGBoost使用了损失函数的二阶导数信息,传统GBDT只用了一阶导数

Bagging对样本重采样,对每一重采样得到的子样本集训练一个模型,最后取平均。由于子样本集的相似性以及使用的是同种模型,因此各模型有近似相等的bias和variance(事实上,各模型的分布也近似相同,但不独立)。由于,所以bagging后的bias和单个子模型的接近,一般来说不能显著降低bias。另一方面,若各子模型独立,则有此时可以显著降低variance。若各子模型完全相同,则

,此时不会降低variance。bagging方法得到的各子模型是有一定相关性的,属于上面两个极端状况的中间态,因此可以一定程度降低variance。为了进一步降低variance,Random forest通过随机选取变量子集做拟合的方式de-correlated了各子模型(树),使得variance进一步降低。

(用公式可以一目了然:设有i.d.的n个随机变量,方差记为,两两变量之间的相关性为,则的方差为

,bagging降低的是第二项,random forest是同时降低两项。详见ESL p588公式15.1)

boosting从优化角度来看,是用forward-stagewise这种贪心法去最小化损失函数。例如,常见的AdaBoost即等价于用这种方法最小化exponential loss:。所谓forward-stagewise,就是在迭代的第n步

发表于 2019-05-13 19:28:27 回复(2)

为什么说bagging是减少variance,而boosting是减少bias?:https://www.zhihu.com/question/26760839

发表于 2019-09-04 14:17:00 回复(0)
为什么c错呢,bagging本身可以使得方差较小,那偏差自然而然就大了啊,那bagging不就是要关注怎么降低偏差吗,boosting同理,是我理解错了么
发表于 2020-10-12 20:34:53 回复(1)
ensemble的方法都是旨在decrease variance
发表于 2020-04-01 17:24:48 回复(0)