首页 > 试题广场 >

下面说法正确的是?

[单选题]
下面说法正确的是?
  • 梯度下降有时会陷于局部极小值,但EM算法不会。
  • SVM对噪声鲁棒。
  • 当训练数据较多时更容易发生过拟合。
  • 给定n个数据点,如果其中一半用于训练,另一半用于测试,则训练误差和测试误差之间的差别会随着n的增加而减小。
A、EM是一种迭代算法,用于含有隐变量的概率参数模型的最大似然估计或极大后验概率估计。最大优点是简单和稳定,但与梯度下降一样,容易陷入局部最优。
B、SVM对缺失数据敏感,所以噪声鲁棒性不是很好。噪声鲁棒性好要数神经网络。
C、过拟合往往是因为训练数据太少而导致。
D、相应的,训练数据越多,拟合度越好,训练误差和测试误差距离自然越小。
发表于 2015-09-21 17:18:17 回复(2)
网友Pandora (好像这是第二次盗用人家的解析了):
A、EM是一种迭代算法,用于含有隐变量的概率参数模型的最大似然估计或极大后验概率估计。最大优点是简单和稳定,但与梯度下降一样,容易陷入局部最优。
B、SVM对缺失数据敏感,所以噪声鲁棒性不是很好。噪声鲁棒性好要数神经网络。
C、过拟合往往是因为训练数据太少而导致。
D、相应的,训练数据越多,拟合度越好,训练误差和测试误差距离自然越小
发表于 2016-09-04 21:54:46 回复(0)
A、EM是一种迭代算法,用于含有隐变量的概率参数模型的最大似然估计或极大后验概率估计。最大优点是简单和稳定,但与梯度下降一样,容易陷入局部最优。
B、SVM对缺失数据敏感,所以噪声鲁棒性不是很好。噪声鲁棒性好要数神经网络。
C、过拟合往往是因为训练数据太少而导致。
D、相应的,训练数据越多,拟合度越好,训练误差和测试误差距离自然越小
发表于 2018-09-13 16:26:07 回复(0)
过拟合并不是训练数据多少导致的,但是训练多,还是会减小误差的
发表于 2017-09-01 23:54:46 回复(0)
完全懵逼 这是概率论?
发表于 2016-08-31 16:08:04 回复(2)