首页 > 试题广场 >

以下说法正确的是(  )

[单选题]
以下说法正确的是(  )
  • Boosting和Bagging都是组合多个分类器投票的方法,二者都是根据单个分类器的正确率决定其权重
  • 梯度下降有时会陷于局部极小值,但EM算法不会
  • 除了EM算法,梯度下降也可求混合高斯模型的参数
  • 基于最小二乘的线性回归问题中,增加L2正则项,总能降低在测试集上的MSE(均方根)误差
A. 【错】基分类器的权重系数:Adaboost中错误率较低的分类器权重较大;Bagging中采用投票法,所以每个基分类器的权重系数都是一样的。
B. 【错】EM算法常用在有隐变量的参数的求解,比如混合高斯模型(Gaussian Mixture Model)。EM算法是可以收敛的,但是可能会陷于局部最小值,所以我们一般需要多次去初始值,选择最后的那个作为我们的结果。
C. 【对】,一般的,GMM的参数更新方法都是EM的方法,梯度下降也是求一个函数最小值的方法,相比EM的算法,更新速度比较快,缺点是比较容易陷入局部收敛点。
ref:高斯混合模型(GMM model)以及梯度下降法(gradient descent)更新参数 - book_bbyuan的博客  https://blog.csdn.net/book_bbyuan/article/details/78843240
D. 【错】采用RMSLE作为性能指标,L2正则化:随着正则参数增加,模型性能先增加后减少。当使用一个较大的正则化参数时,RMSLE的性能急剧下降
发表于 2019-12-20 20:11:17 回复(0)