首页 > 试题广场 >

以下说法中正确的是()

[不定项选择题]
以下说法中正确的是()
  • SVM对噪声(如来自其他分布的噪声样本)鲁棒
  • 在AdaBoost算法中,所有被分错的样本的权重更新比例相同
  • Boosting和Bagging都是组合多个分类器投票的方法,二者都是根据单个分类器的正确率决定其权重
  • 给定n个数据点,如果其中一半用于训练,一般用于测试,则训练误差和测试误差之间的差别会随着n的增加而减少
求解答
发表于 2016-01-19 16:26:41 回复(0)
D项直观正确,理论可参考VC Bound公式
发表于 2016-08-13 17:21:13 回复(0)
1、SVM对噪声(如来自其他分布的噪声样本)鲁棒
SVM本身对噪声具有一定的鲁棒性,但实验证明,是当噪声率低于一定水平的噪声对SVM没有太大影响,但随着噪声率的不断增加,分类器的识别率会降低。
2、在AdaBoost算法中所有被分错的样本的权重更新比例相同
AdaBoost算法中不同的训练集是通过调整每个样本对应的权重来实现的。开始时,每个样本对应的权重是相同的,即其中n为样本个数,在此样本分布下训练出一弱分类器。对于分类错误的样本,加大其对应的权重;而对于分类正确的样本,降低其权重,这样分错的样本就被凸显出来,从而得到一个新的样本分布。在新的样本分布下,再次对样本进行训练,得到弱分类器。以此类推,将所有的弱分类器重叠加起来,得到强分类器。
3、Boost和Bagging都是组合多个分类器投票的方法,二者均是根据单个分类器的正确率决定其权重。
Bagging与Boosting的区别:取样方式不同。Bagging采用均匀取样,而Boosting根据错误率取样。Bagging的各个预测函数没有权重,而Boosting是由权重的,Bagging的各个预测函数可以并行生成,而Boosing的哥哥预测函数只能顺序生成。
以上答案参考http://www.cnblogs.com/Miranda-lym/p/5194922.html
发表于 2016-03-05 13:04:19 回复(5)
A. SVM并不是对噪声鲁棒的,soft-margin就是针对数据集中存在一些特异点,引入松弛变量得出的。所以当来自其它分布的噪声较多时,将不再鲁棒;
B. 被分错的样本权证增加的比例是相同的,题目中并没有说权重是相同的(读错题了。。);
C. Bagging中每个基分类器的权重都是相同的;
  • Adaboost与Bagging的区别:
  • 采样方式:Adaboost是错误分类的样本的权重较大实际是每个样本都会使用;Bagging采用有放回的随机采样;
  • 基分类器的权重系数:Adaboost中错误率较低的分类器权重较大;Bagging中采用投票法,所以每个基分类器的权重系数都是一样的。
  • Bias-variance权衡:Adaboost更加关注bias,即总分类器的拟合能力更好;Bagging更加关注variance,即总分类器对数据扰动的承受能力更强。
D. 显而易见是是正确的啊。
编辑于 2016-08-10 11:41:55 回复(1)
/*Adaboost的目的是从训练数据中学习一系列弱分类器,然后将其按一定权重累加起来得到强分类器。
刚开始每个样本对应的权重是相等的,在此样本分布下训练一个基本分类器c1.对于c1错分的样本增加其权重,
对正确分类的样本降低其权重。这样使得错分的样本突出出来,并得到一个新的样本分布。
同时根据分类情况赋予c1一个权重,表示其重要程度,分类正确率越高权重越大。
然后在新的样本分布下对分类器进行训练,得到c2及其权重。依此类推,得到M个基本分类器及其权重。
将这些弱分类器按照权重累加起来就是所期望的强分类器。(B对)
//Bagging是对训练样本多次抽样训练多个分类器,然后对测试集进行投票所得到的优胜结果就是最终的分类结果。
在投票时每个分类器的权重是相等的。(所以C错)
*/

编辑于 2016-07-12 15:17:51 回复(0)
硬要说SVM随噪声不断增加而变得不鲁棒,那什么模型不是这样的,都是不可能无限容纳噪声的啊
发表于 2018-09-11 10:31:41 回复(0)
SVM对缺失数据敏感

发表于 2015-12-11 13:21:49 回复(0)
bagging是采用有放回的随机采样,adaboost是提升错误样本的权重
发表于 2019-08-27 12:01:23 回复(0)
SVM对缺失数据敏感 boosting是挑选精英有不同权重,bagging就是直接统计多个学习机结果权重一致
发表于 2022-03-13 03:16:07 回复(0)
http://blog.csdn.net/wangran51/article/details/8958918
少数支持向量决定了最终结果,这不但可以帮助我们抓住关键样本、“剔除”大量冗余样本,而且注定了该方法不但算法简单,而且具有较好的“鲁棒”性。这种“鲁棒”性主要体现在:
①增、删非支持向量样本对模型没有影响;
②支持向量样本集具有一定的鲁棒性;
③有些成功的应用中,SVM 方法对核的选取不敏感
发表于 2016-02-21 02:06:39 回复(1)
  • A:SVM 对噪声(如来自其他分布的噪声样本)鲁棒

    错误。SVM 对噪声的鲁棒性较弱,尤其是在噪声样本离决策边界很近或跨越决策边界时,这会显著影响 SVM 的分类性能。
  • B:在 AdaBoost 算法中,所有被分错的样本的权重更新比例相同
  • 错误。在 AdaBoost 中,分错的样本会被赋予更大的权重,而不是所有错误样本权重更新比例相同。权重更新是根据分类的错误程度进行的,错误率越高的样本,更新后的权重就越大。

  • C:Boosting 和 Bagging 都是组合多个分类器投票的方法,二者都是根据单个分类器的正确率决定其权重
    错误。Bagging 采用的是均等投票的方式,所有分类器的权重相同。而 Boosting 则是根据单个分类器的表现(正确率)来调整其权重。

  • D:给定 n 个数据点,如果其中一半用于训练,另一半用于测试,则训练误差和测试误差之间的差别会随着 n 的增加而减少
    正确。随着训练样本数量增加,模型能够更好地捕捉数据的模式,因此训练误差和测试误差之间的差异会逐渐减小。


  • 发表于 2024-10-11 10:20:48 回复(0)
    对于选项D,难道过度训练之后不会造成过拟合,从而造成误差越来越大吗。
    发表于 2021-10-13 10:57:09 回复(0)
    错误样本的权重不是看偏离程度吗
    发表于 2022-12-08 10:19:41 回复(0)
    svm对噪声异常值不敏感,对缺失值敏感,A✓
    发表于 2022-02-22 12:00:19 回复(0)

    D项参考VC bound

    发表于 2018-10-20 19:25:34 回复(0)
    D n过大的时候,会过拟合呀。n再大,train_error和test_error之间的gap会变大吧。
    发表于 2018-03-28 15:23:50 回复(0)