首页 > 试题广场 >

简述:A)神经网络节点的激活函数作用是什么? B)Sigmo

[问答题]
简述:A)神经网络节点的激活函数作用是什么? B)Sigmoid, relu和softmax激活函数表达式是什么? C)各自的作用优缺点是什么?
C题目的补充答案:
1.Sigmoid函数:
优点:把输入的连续实值变换为0和1之间的连续输出。非常大的负数输出为0,非常大的正数输出为1。
缺点1:深度神经网络中,梯度反向传递时,出现梯度爆炸或梯度消失,其中梯度爆炸发生概率非常小,梯度消失发生概率比较大。
原因:Sigmoid函数的导数如图所示,当初始化神经网络的权值为 [0,1] 之间的随机值时,由反向传播算法的数学推导可知,梯度从后向前传播时每传递一层梯度值都会减小为原来的0.25倍,如果神经网络隐层特别多,那么梯度在穿过多层后将会趋于0,即出现梯度消失现象;当网络权值初始化为 (1,+∞) 区间内的值时,前面的层比后面的层梯度变化更快(指数级),则会出现梯度爆炸情况。
缺点2:解析式中含有幂运算,计算机求解时较为耗时。对于大规模深度网络,这会较大地增加训练的时间成本。
2.ReLU函数:
优点:
1)解决了梯度消失的问题 (在正区间)
2)计算速度非常快(只需判断输入是否大于0)
3)收敛速度远快于Sigmoid
4)增强网络稀疏性(负区间均为零,即节点不被训练)
缺点:Dead ReLU Problem,即某些神经元可能永远不会被激活,导致相应的参数永远不能被更新。
原因:
(1) 很差的参数初始化情况(这种情况比较少见)
(2)学习率太高导致在训练过程中参数更新幅度太大,使网络进入上述状态。
3.Softmax函数:
优点:
1)使得输入大的值更大,小的更小,增强了区分对比度,学习效率更高
2)softmax是连续可导的,消除了拐点
3)输出归一化,方便计算基于概率的loss
注:Softmax是Sigmoid的推广,二分类时,Sigmoid与Softmax相同。

发表于 2019-06-04 16:42:16 回复(0)
激活函数为神经网络引入非线性因素,加强模型的预测能力。若所有隐藏层都使用线性函数作为激活函数,其作用和没有隐藏层没有区别。
发表于 2019-08-15 16:56:56 回复(0)