A:它能够将任意输入映射到(0, 1)区间内,适用于二分类问题的输出层。
ReLU 的数学形式是 f(x)=max(0,x)f(x)=max(0,x),输出范围是 [0,+∞)[0,+∞),并不是 (0,1) 区间。
将输入映射到 (0,1) 的是 Sigmoid 函数。
❌ 错误
B:它解决了 Sigmoid 和 Tanh 函数在深度网络中容易出现的梯度消失问题。
Sigmoid 和 Tanh 在输入绝对值较大时梯度趋近于 0,导致深层网络反向传播时梯度消失。
ReLU 在 x>0x>0 部分导数为 1,不会缩小梯度,能缓解梯度消失。
✅ 正确
C:它是一种概率分布函数,适用于多分类问题的输出层。
多分类输出层通常用 Softmax,把输出转换成概率分布。
ReLU 不是概率分布函数。
❌ 错误
D:计算效率高,实现高效,可加速神经网络的训练过程。
ReLU 只需比较取最大值,没有指数运算,比 Sigmoid/Tanh 计算快。
✅ 正确