首页 > 试题广场 >

下列对于激活函数说法错误的是

[单选题]
下列对于激活函数说法错误的是
  • 激活函数将非线性引入了神经网络
  • 激活函数的值域在0-1之间
  • 激活函数的选取会影响梯度消失和梯度爆炸问题
  • RELU可能会导致某些神经元永远不更新
只有sigmoid激活函数的值域才在0-1之间
发表于 2021-04-11 20:43:20 回复(0)
ReLU在训练的时候很”脆弱”,一不小心有可能导致神经元”坏死”。举个例子:由于ReLU在x<0时梯度为0,这样就导致负的梯度在这个ReLU被置零,而且这个神经元有可能再也不会被任何数据激活。如果这个情况发生了,那么这个神经元之后的梯度就永远是0了,也就是ReLU神经元坏死了,不再对任何数据有所响应。
ReLU的值域上边界大于1
编辑于 2021-08-24 09:53:11 回复(0)