首页 > 试题广场 >

训练神经网络时,以下哪种激活函数最容易造成梯度消失: (&n

[单选题]
训练神经网络时,以下哪种激活函数最容易造成梯度消失: (       )
  • tanh
  • sigmoid
  • ReLU
  • leaky ReLU

Sigmoid的导数是,导数值范围是,连续乘上几次就容易梯度消失了。
tanh的导数是, 当接近1或者-1的时候,导数值也会变成0。

发表于 2021-02-25 08:55:05 回复(0)