首页 > 试题广场 >

机器学习中L1正则化和L2正则化的区别是?

[不定项选择题]
机器学习中L1正则化和L2正则化的区别是?
  • 使用L1可以得到稀疏的权值
  • 使用L1可以得到平滑的权值
  • 使用L2可以得到稀疏的权值
  • 使用L2可以得到平滑的权值

图片说明

发表于 2017-03-07 12:40:50 回复(4)
使用L1正则后的权值更新规则多了一项 η * λ * sgn(w)/n,这一项 当w为正时,更新后的w变小。当w为负时,更新后的w变大——因此它的效果就是让w往0靠,使网络中的权重尽可能为0,也就相当于减小了网络复杂度,防止过拟合。所以说L1可以得到更稀疏的权值。
发表于 2016-08-03 20:57:20 回复(0)
发表于 2015-09-15 16:20:37 回复(1)

 我们知道,L1和L2都是规则化的方式,我们将权值参数以L1或者L2的方式放到代价函数里面去。然后模型就会尝试去最小化这些权值参数。而这个最小化就像一个下坡的过程,L1和L2的差别就在于这个“坡”不同,如下图:L1就是按绝对值函数的“坡”下降的,而L2是按二次函数的“坡”下降。所以实际上在0附近,L1的下降速度比L2的下降速度要快。所以会非常快得降到0。不过我觉得这里解释的不太中肯,当然了也不知道是不是自己理解的问题。

       L1在江湖上人称Lasso,L2人称Ridge。不过这两个名字还挺让人迷糊的,看上面的图片,Lasso的图看起来就像ridge,而ridge的图看起来就像lasso。
因此,一句话总结就是:L1会趋向于产生少量的特征,而其他的特征都是0,而L2会选择更多的特征,这些特征都会接近于0。Lasso在特征选择时候非常有用,而Ridge就只是一种规则化而已。
参考: http://blog.csdn.net/zouxy09/article/details/24971995/
发表于 2016-09-06 18:40:05 回复(0)
L1正则化偏向于稀疏,它会自动进行特征选择,去掉一些没用的特征,也就是将这些特征对应的权重置为0.
L2主要功能是为了防止过拟合,当要求参数越小时,说明模型越简单,而模型越简单则,越趋向于平滑,从而防止过拟合。
发表于 2017-06-03 14:06:15 回复(0)
该题西瓜书上特征那章的特征选择之嵌入式与L1正则里面有讲
发表于 2017-02-16 00:57:41 回复(0)
车毁人亡

发表于 2022-01-05 21:39:38 回复(0)
明显是AD
发表于 2015-10-06 15:51:32 回复(1)
L1正则化是模型各个参数的绝对值之和 L2正则化是模型各个参数的平方和开方 。L1更倾向于产生少量权重,用0来代替。L2倾向更多,。虽然有的值会倾向于0
编辑于 2019-03-18 15:28:10 回复(0)

L1用绝对值误差;L2用mean square error


发表于 2018-10-20 19:19:04 回复(0)
AD
发表于 2017-08-29 19:36:37 回复(0)
要掌握
发表于 2017-02-28 07:32:53 回复(0)