首页 > 试题广场 >

[机器学习]以下关于batch normalization说

[不定项选择题]
以下关于batch normalization说法正确的是:
  • normalization的均值方差计算是基于全部训练数据的
  • normalization的均值方差只基于当前的minibatch
  • normalization对输入层的每一维单独计算均值方差,
  • normalization的输出分布服从均值为0,方差为1的高斯分布
bn基于minibatch没问题,
c选项表示不懂,bn并没有对[N,H,W,C]每一维都计算了方差和均值啊,不是只计算了N,H,W这三个维度么
normalization会使输入保持0,1的正态分布,但是输出就不能保证了。

发表于 2018-09-07 21:08:15 回复(0)

这里的normalization指的是Batch Normalization的输出,而服从标准正态分布的是,上图的normalize部分,是BN的其中一部分。
发表于 2018-10-19 10:21:48 回复(0)

D选项认为有问题,BN的输出本来就是normalized之后的,只有BN层的输出为了可学习才加入线性参数


发表于 2018-12-20 09:51:56 回复(1)