SGD(随机梯度下降)
Adam
RMSProp
Adagrad
进化逻辑总结
可以这样理解: SGD 解决“能不能训练” Adagrad 解决“不同参数学习率问题” RMSProp 解决“学习率衰减过快问题”
这道题你会答吗?花几分钟告诉大家答案吧!
扫描二维码,关注牛客网
下载牛客APP,随时随地刷题