首页
题库
面试
求职
学习
竞赛
More+
所有博客
搜索面经/职位/试题/公司
搜索
我要招人
去企业版
登录 / 注册
首页
>
试题广场
>
简述:A)神经网络节点的激活函数作用是什么? B)Sigmo
[问答题]
简述:A)神经网络节点的激活函数作用是什么? B)Sigmoid, relu和softmax激活函数表达式是什么? C)各自的作用优缺点是什么?
查看答案及解析
添加笔记
求解答(0)
邀请回答
收藏(25)
分享
纠错
2个回答
添加回答
7
Isio
C题目的补充答案:
1.Sigmoid函数:
优点:把输入的连续实值变换为0和1之间的连续输出。非常大的负数输出为0,非常大的正数输出为1。
缺点1:深度神经网络中,梯度反向传递时,出现梯度爆炸或梯度消失,其中梯度爆炸发生概率非常小,梯度消失发生概率比较大。
原因:Sigmoid函数的导数如图所示,当初始化神经网络的权值为 [0,1] 之间的随机值时,由反向传播算法的数学推导可知,梯度从后向前传播时每传递一层梯度值都会减小为原来的0.25倍,如果神经网络隐层特别多,那么梯度在穿过多层后将会趋于0,即出现梯度消失现象;当网络权值初始化为 (1,+∞) 区间内的值时,前面的层比后面的层梯度变化更快(指数级),则会出现梯度爆炸情况。
缺点2:解析式中含有幂运算,计算机求解时较为耗时。对于大规模深度网络,这会较大地增加训练的时间成本。
2.ReLU函数:
优点:
1)解决了梯度消失的问题 (在正区间)
2)计算速度非常快(只需判断输入是否大于0)
3)收敛速度远快于Sigmoid
4)增强网络稀疏性(负区间均为零,即节点不被训练)
缺点:Dead ReLU Problem,即某些神经元可能永远不会被激活,导致相应的参数永远不能被更新。
原因:
(1) 很差的参数初始化情况(这种情况比较少见)
(2)学习率太高导致在训练过程中参数更新幅度太大,使网络进入上述状态。
3.Softmax函数:
优点:
1)使得输入大的值更大,小的更小,增强了区分对比度,学习效率更高
2)softmax是连续可导的,消除了拐点
3)输出归一化,方便计算基于概率的loss
注:Softmax是Sigmoid的推广,二分类时,Sigmoid与Softmax相同。
发表于 2019-06-04 16:42:16
回复(0)
0
一只小卡
激活函数为神经网络引入非线性因素,加强模型的预测能力。若所有隐藏层都使用线性函数作为激活函数,其作用和没有隐藏层没有区别。
发表于 2019-08-15 16:56:56
回复(0)
这道题你会答吗?花几分钟告诉大家答案吧!
提交观点
问题信息
运维工程师
算法工程师
欢聚集团
2018
上传者:
小小
难度:
2条回答
25收藏
1907浏览
热门推荐
相关试题
下面描述中,符合结构化程序设计风格...
搜狐
Java工程师
C++工程师
iOS工程师
安卓工程师
运维工程师
前端工程师
算法工程师
PHP工程师
2018
评论
(1)
设一组初始记录关键字序列为(30,...
Java工程师
C++工程师
iOS工程师
安卓工程师
运维工程师
前端工程师
算法工程师
测试工程师
安全工程师
2018
奇安信
评论
(1)
下列哪些是移动网常采用的抗干扰技术?()
移动通信原理(2G、3G)
移动通信
评论
(1)
Adam优化器,BN的作用,为什么...
评论
(1)
扫描二维码,关注牛客网
意见反馈
下载牛客APP,随时随地刷题