面试可能会问到的问题

深度学习可能会问到的问题:

SGD随机梯度下降:容易陷入局部最优解,学习率固定
adagrad:如下图

adadelta:如下图

adam
momentum:也是做梯度下降,是一种梯度下降的优化算法。学习率还是固定的,加入了动量,进行累加,有跳出局部最优解的能力,比较稳定,
optimizer算法,在


全部评论

相关推荐

09-21 21:14
门头沟学院
否极泰来来来来:和他说:这里不好骂你,我们加个微信聊
点赞 评论 收藏
分享
求求给个offer我...:笑死了,笑完过了几分钟感觉挺可悲的
点赞 评论 收藏
分享
评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务