首页 > 试题广场 >

在构建深度学习模型时,选择ReLU作为激活函数的原因可能有什

[不定项选择题]
在构建深度学习模型时,选择ReLU作为激活函数的原因可能有什么?
  • 它能够将任意输入映射到(0, 1)区间内,适用于二分类问题的输出层。
  • 它解决了Sigmoid和Tanh函数在深度网络中容易出现的梯度消失问题。
  • 它是一种概率分布函数,适用于多分类问题的输出层。
  • 计算效率高,实现高效,可加速神经网络的训练过程

A:它能够将任意输入映射到(0, 1)区间内,适用于二分类问题的输出层。

  • ReLU 的数学形式是 f(x)=max⁡(0,x)f(x)=max(0,x),输出范围是 [0,+∞)[0,+),并不是 (0,1) 区间。

  • 将输入映射到 (0,1) 的是 Sigmoid 函数。

  • ❌ 错误

B:它解决了 Sigmoid 和 Tanh 函数在深度网络中容易出现的梯度消失问题。

  • Sigmoid 和 Tanh 在输入绝对值较大时梯度趋近于 0,导致深层网络反向传播时梯度消失。

  • ReLU 在 x>0x>0 部分导数为 1,不会缩小梯度,能缓解梯度消失。

  • ✅ 正确

C:它是一种概率分布函数,适用于多分类问题的输出层。

  • 多分类输出层通常用 Softmax,把输出转换成概率分布。

  • ReLU 不是概率分布函数。

  • ❌ 错误

D:计算效率高,实现高效,可加速神经网络的训练过程。

  • ReLU 只需比较取最大值,没有指数运算,比 Sigmoid/Tanh 计算快。

  • ✅ 正确

发表于 2026-03-05 13:09:11 回复(0)