首页 > 试题广场 >

以下说法中正确的是()

[不定项选择题]
以下说法中正确的是()
  • SVM对噪声(如来自其他分布的噪声样本)鲁棒
  • 在AdaBoost算法中,所有被分错的样本的权重更新比例相同
  • Boosting和Bagging都是组合多个分类器投票的方法,二者都是根据单个分类器的正确率决定其权重
  • 给定n个数据点,如果其中一半用于训练,一般用于测试,则训练误差和测试误差之间的差别会随着n的增加而减少
求解答
发表于 2016-01-19 16:26:41 回复(0)
D项直观正确,理论可参考VC Bound公式
发表于 2016-08-13 17:21:13 回复(0)
1、SVM对噪声(如来自其他分布的噪声样本)鲁棒
SVM本身对噪声具有一定的鲁棒性,但实验证明,是当噪声率低于一定水平的噪声对SVM没有太大影响,但随着噪声率的不断增加,分类器的识别率会降低。
2、在AdaBoost算法中所有被分错的样本的权重更新比例相同
AdaBoost算法中不同的训练集是通过调整每个样本对应的权重来实现的。开始时,每个样本对应的权重是相同的,即其中n为样本个数,在此样本分布下训练出一弱分类器。对于分类错误的样本,加大其对应的权重;而对于分类正确的样本,降低其权重,这样分错的样本就被凸显出来,从而得到一个新的样本分布。在新的样本分布下,再次对样本进行训练,得到弱分类器。以此类推,将所有的弱分类器重叠加起来,得到强分类器。
3、Boost和Bagging都是组合多个分类器投票的方法,二者均是根据单个分类器的正确率决定其权重。
Bagging与Boosting的区别:取样方式不同。Bagging采用均匀取样,而Boosting根据错误率取样。Bagging的各个预测函数没有权重,而Boosting是由权重的,Bagging的各个预测函数可以并行生成,而Boosing的哥哥预测函数只能顺序生成。
以上答案参考http://www.cnblogs.com/Miranda-lym/p/5194922.html
发表于 2016-03-05 13:04:19 回复(5)
A. SVM并不是对噪声鲁棒的,soft-margin就是针对数据集中存在一些特异点,引入松弛变量得出的。所以当来自其它分布的噪声较多时,将不再鲁棒;
B. 被分错的样本权证增加的比例是相同的,题目中并没有说权重是相同的(读错题了。。);
C. Bagging中每个基分类器的权重都是相同的;
  • Adaboost与Bagging的区别:
  • 采样方式:Adaboost是错误分类的样本的权重较大实际是每个样本都会使用;Bagging采用有放回的随机采样;
  • 基分类器的权重系数:Adaboost中错误率较低的分类器权重较大;Bagging中采用投票法,所以每个基分类器的权重系数都是一样的。
  • Bias-variance权衡:Adaboost更加关注bias,即总分类器的拟合能力更好;Bagging更加关注variance,即总分类器对数据扰动的承受能力更强。
D. 显而易见是是正确的啊。
编辑于 2016-08-10 11:41:55 回复(1)
/*Adaboost的目的是从训练数据中学习一系列弱分类器,然后将其按一定权重累加起来得到强分类器。
刚开始每个样本对应的权重是相等的,在此样本分布下训练一个基本分类器c1.对于c1错分的样本增加其权重,
对正确分类的样本降低其权重。这样使得错分的样本突出出来,并得到一个新的样本分布。
同时根据分类情况赋予c1一个权重,表示其重要程度,分类正确率越高权重越大。
然后在新的样本分布下对分类器进行训练,得到c2及其权重。依此类推,得到M个基本分类器及其权重。
将这些弱分类器按照权重累加起来就是所期望的强分类器。(B对)
//Bagging是对训练样本多次抽样训练多个分类器,然后对测试集进行投票所得到的优胜结果就是最终的分类结果。
在投票时每个分类器的权重是相等的。(所以C错)
*/

编辑于 2016-07-12 15:17:51 回复(0)
SVM对缺失数据敏感

发表于 2015-12-11 13:21:49 回复(0)
bagging是采用有放回的随机采样,adaboost是提升错误样本的权重
发表于 2019-08-27 12:01:23 回复(0)
硬要说SVM随噪声不断增加而变得不鲁棒,那什么模型不是这样的,都是不可能无限容纳噪声的啊
发表于 2018-09-11 10:31:41 回复(0)
SVM对缺失数据敏感 boosting是挑选精英有不同权重,bagging就是直接统计多个学习机结果权重一致
发表于 2022-03-13 03:16:07 回复(0)
http://blog.csdn.net/wangran51/article/details/8958918
少数支持向量决定了最终结果,这不但可以帮助我们抓住关键样本、“剔除”大量冗余样本,而且注定了该方法不但算法简单,而且具有较好的“鲁棒”性。这种“鲁棒”性主要体现在:
①增、删非支持向量样本对模型没有影响;
②支持向量样本集具有一定的鲁棒性;
③有些成功的应用中,SVM 方法对核的选取不敏感
发表于 2016-02-21 02:06:39 回复(1)
对于选项D,难道过度训练之后不会造成过拟合,从而造成误差越来越大吗。
发表于 2021-10-13 10:57:09 回复(0)
错误样本的权重不是看偏离程度吗
发表于 2022-12-08 10:19:41 回复(0)
svm对噪声异常值不敏感,对缺失值敏感,A✓
发表于 2022-02-22 12:00:19 回复(0)

D项参考VC bound

发表于 2018-10-20 19:25:34 回复(0)
D n过大的时候,会过拟合呀。n再大,train_error和test_error之间的gap会变大吧。
发表于 2018-03-28 15:23:50 回复(0)