首页 > 试题广场 >

关于batchnormalization,以下说法错误的是?

[不定项选择题]
关于batch normalization,以下说法错误的是?()
  • BN可以加速网络收敛
  • BN可以缓解梯度爆炸问题
  • BN没有可学习的参数
  • BN只能放在激活函数之前
 c ,扩展参数 gamma, 和 平移参数 β
发表于 2021-11-04 16:42:36 回复(0)
BN、LN等再归一化后还附带一个线性映射
发表于 2021-04-03 14:59:37 回复(0)
C BN有计算参数
发表于 2021-03-13 11:31:29 回复(0)