首页 > 试题广场 >

假设我们有一个使用ReLU激活函数(ReLU activat

[单选题]

假设我们有一个使用ReLU激活函数(ReLU activation function)的神经网络,假如我们把ReLU激活替换为线性激活,那么这个神经网络能够模拟出同或函数(XNOR function)吗?

  • 可以
  • 不好说
  • 不一定
  • 不能
ReLU激活替换为线性激活,神经网络将失去模拟非线性函数的能力

发表于 2020-03-05 11:33:40 回复(0)
使用ReLU激活函数的神经网络是能够模拟出同或函数的。
但如果ReLU激活函数被线性函数所替代之后,神经网络将失去模拟非线性函数的能力。
发表于 2020-03-17 10:25:10 回复(1)
单层感知机是不能解决异或问题的,但是多层就可以了呀!这题有点迷。。。
发表于 2022-08-16 22:36:14 回复(0)

考察知识点:激活函数,神经网络中利用非线性激活函数来学习数据中的非线性特征,例如Sigmoid激活函数,Tanh激活函数,Relu激活函数;

同或函数是一个非线性的函数(想象一下在二维平面上画同或函数,是无法用一条直线将取值不同点进行分割的,参考:https://www.deeplearningbook.org/contents/mlp.html

所以无法用线性激活函数代替非线性激活函数;

还可以针对不同激活函数的特征来考察。

编辑于 2021-08-13 17:35:07 回复(0)
没有激活函数的情况下,再多的线性层也只能处理线性可分问题,不具备非线性能力,也就不能拟合线性函数以外的任何函数
发表于 2022-02-21 15:00:00 回复(0)
这也没说有没有其他非线性单元啊 怎么就不行了……
发表于 2020-10-21 17:00:14 回复(0)
不好说就是不一定,所以选不能
发表于 2023-11-06 15:14:18 回复(0)
激活函数不可以是线性函数,否则无论多少层神经网络,本质都是一个简单的y=kx+b,线性函数。同或异或都无法拟合。
发表于 2023-10-15 21:20:23 回复(0)
我怎么感觉是同或函数相同为1,相异为0,RELU可以取到[0,+无穷],而sigmoid的取值范围是(0,1),取值取不到0和1,这是在考取值范围吧
发表于 2023-08-31 11:12:30 回复(0)
两层感知机就能解决异或问题 而感知机是线性激活函数 说明多层线性激活函数可以解决非线性问题。这题有问题
发表于 2023-05-23 01:20:24 回复(1)
两层感知机就能解决异或问题 而感知机是线性激活函数 说明多层线性激活函数可以解决非线性问题。这题有问题
发表于 2023-05-23 01:20:24 回复(0)
relu是非线性激活函数,他是同或函数
编辑于 2022-12-15 19:55:06 回复(0)
同或函数是个啥
发表于 2022-09-15 15:29:29 回复(0)
线性函数进行卷积后得到的函数仍然是线性的,而同或函数是不能够被一条线分出来的
发表于 2022-02-21 21:47:30 回复(0)
同或函数是必须要非线性激活函数才能拟合的
发表于 2022-01-06 22:28:28 回复(0)
加入激活函数,模型具有了模拟非线性函数的作用,如果被替换成了线性,那么模型就不能进行其他非线性函数的模拟。
发表于 2020-08-28 00:05:00 回复(0)
<p>激活函数替换为线性函数就会失去模仿能力?拟合能力?</p>
发表于 2020-06-19 16:15:49 回复(0)