首页 > 试题广场 >

下列关于optimizer的说法中,错误的是

[单选题]
下列关于optimizer的说法中,错误的是
  • 当目标函数为凸函数时,使用梯度下降法可以得到全局最优解
  • AdaGrad会随着时间的推移使得学习率越来越小
  • Adam本质上是带有动量项的RMSprop
  • RMSprop不需要设置全局的学习率
RMSProp通过引入一个衰减系数,让r每回合都衰减一定比例,类似于Momentum中的做法。
需要:全局学习速率 ϵ , 初始参数 θ, 数值稳定量δ,衰减速率ρ 
发表于 2021-08-24 10:00:00 回复(0)