首页 > 试题广场 >

深度学习中,以下哪些方法可以降低模型过拟合?()

[不定项选择题]
深度学习中,以下哪些方法可以降低模型过拟合?()
  • 增加更多的样本
  • Dropout
  • 增大模型复杂度,提高在训练集上的效果
  • 增加参数惩罚
放置模型过拟合:
1.引入正则化(参数范数惩罚)

2.Dropout

3.提前终止训练

4.增加样本量

5.参数绑定与参数共享

6.辅助分类节点(auxiliary classifiers)

7.Batch Normalization

发表于 2020-08-14 11:05:49 回复(0)

正则化(regularization)会给给代价函数增加一个惩罚项,使得系数不会达到很大的值。


发表于 2020-05-21 15:19:53 回复(0)
这道题我刚开始没有选择D,增加参数惩罚的选项,因为我将这个选项理解成了  增大惩罚参数。。。。

首先,对于题目选项所说的增加“参数惩罚”,我觉得是个广义上的解释,比如说增加正则项或利用先验分布对参数加以控制。在这种情况下,确实是防止过拟合的方案。具体来说,在逻辑回归中,假设正则项参数为alpha,那么alpha越大,模型越容易学习不足,极端情况下会欠拟合。

而我理解成的增大惩罚参数,是SVM中的惩罚参数C。软间隔SVM相当于最小化拥有正则化项的合页分布的损失,在此时这个惩罚参数C相当于1/2*alpha,C越大,alpha越小,模型越过拟合。

学好语文很重要啊。。。
发表于 2021-04-10 14:52:11 回复(1)
增加参数惩罚不是更过拟合吗?相当于更贴合训练集啊
发表于 2019-09-05 20:50:22 回复(3)