首页 > 试题广场 >

神经网络,非线性激活函数包括sigmoidtanhReL

[单选题]
神经网络,非线性激活函数包括sigmoid/tanh/ReLU等
  • 加速反向传播时的梯度计算
  • 只在最后输出层才会用到
  • 总是输出0/1
  • 其他说法都不正确
激活函数是网络正向传播时,参数传递所用到的函数,不同的网络类型应用不同的网络激活函数。

A :加速反向传播计算的是 优化方法(Optimizer)
B:输出层常用softmax/sigmod 隐藏层常用的是relu/tanh
C: 输出各种都有 ,大多数是-1到1之间
发表于 2019-08-26 21:36:53 回复(0)