首页 > 试题广场 >

在神经网络中,第一层的激活函数为Relu:f(t) 

[单选题]
在神经网络中,第一层的激活函数为Relu:f(t) = max(0, t),其中t = w*x + b,x为instance输入,w和b为模型参数,如果一个instance在这里的输入值对应t=-1,那么在backpropagate计算参数的梯度时,对于这个instance来说,传过这个激活函数的梯度值为
  • 1
  • 0
  • -1
  • 2
instance已经小于0了,relu激活函数在小于0的部分梯度为0
发表于 2020-12-28 18:10:36 回复(0)
这个激活函数类似ReLU函数,小于0的话梯度为0
发表于 2019-11-25 19:46:50 回复(0)