关于bn和ln

二面的时候面试官问我为什么transformer不用bn而是用ln。我看了几个网上的八股回答,结果面试官还是不满意,有没有懂哥讲一下啊? #nlp# #腾讯#
我的回答也是不同句子长度不一样,然后每个句子的位置不一样,可能是表达不大好,那个老东西不满意
全部评论
因为transformer输入的序列长度不固定,bn是算每一个特征的均值和方差,序列长度不一样,计算的时候有的地方有值有的地方没有,不好计算。ln是对每一个样本单独计算,即使每个样本长度不一样也不影响计算
17 回复 分享
发布于 2024-04-07 18:04 新加坡
BN和LN是不同纬度的归一化 LN是特征层面的归一化不会因为序列长度差距过大受影响,BN是batch size纬度归一化因此序列长度会影响。具体怎么用都看实际情况是啥样的 没那么绝对 手撸一下公示记忆比较深刻
4 回复 分享
发布于 2024-04-08 12:03 陕西
transformer对句子或者序列建模,每一个token位置的语义并不像tabular数据或者图像那样特征是固定的吧,用bn就默认是那样对齐处理了
4 回复 分享
发布于 2024-04-04 21:00 安徽
说一个很novel的观点…… bn一般用在图像上,当我们对图片抽取特征后,会得到不同通道的特征,这些通道特征对batch内样本具有同样的含义。例如一个人有年龄,身高等特征。而nlp中,如果要进行bn,则是对不同句子的第i个token进行处理,举个例子"我爱你"和"牛客网",其中的我和牛并没有相同的含义,所以解释不通。还有一个点就是你所说的每个句子长度不同,对于短句子我们需要pad,那么如果进行bn就需要将pad.和长句子中的token进行处理,这样也是不合理的。
3 回复 分享
发布于 2024-04-13 02:02 贵州
如果往深里说,可以结合上Lipschitz常量,self-attention的Lipschitz常量比较大,也就是上下界浮动大,BN层无法有效约束。这个点比较深,还可以延伸到LN的变体RMSNorm。 虽然从理论上可以讲的很深,但其实主要还是实验上有效,这些八股属实没意思。
3 回复 分享
发布于 2024-04-07 16:57 广东
因为一个句子不会因为词的位置发生变化而改变语义。
2 回复 分享
发布于 2024-04-08 20:25 浙江
bn不好用啊,长度不一样
点赞 回复 分享
发布于 2024-07-01 19:02 北京
Bn和batch大小关系很大,而句子长度并不固定。并且,对不同句子的同一位置的特征做归一化并无意义。
点赞 回复 分享
发布于 2024-04-08 14:48 河北

相关推荐

1️⃣一面时间:9.12  时长:1hcode:统计岛屿数量、最大岛屿面积,DFS方法解了然后介绍实习项目,面试官非常耐心地听,没有打断八股1.bert和gpt的区别?(从模型架构、训练方式、使用场景方面回答的)2.训练/微调一个LLM的流程?3.实习时用的 megatron 框架吗,对分布式训练框架了解多少?(回答了deepspeed和megatron区别,以及几种并行方式,以及deepspeed的三种zero)4.了解强化学习吗,跟SFT有什么区别?5.反问:业务,对岗位的期望💣评价:有点紧张,算法题有一个小失误没注意到2️⃣二面时间:9.14  时长:1h八股1.写一下 attention 公式(代码实现了下)2.训练时为什么要mask,推理时也需要吗?两处有什么区别?推理时的sequence length和训练时一样吗3.transformer和传统seq2seq模型有什么区别?4.计算attention时为什么要除以d_k,这个d_k的含义是?5.attention计算时还有哪些scale处理?6.attention中softmax函数作用、公式、为什么有减去最大值的处理?换个函数还能这样处理吗?7.解释数值上溢、下溢问题8.讲一下prompt书写的经验,如何判断prompt是否达标,如何改进prompt9.讲一下SFT,会对哪部分计算loss?为什么?10.讲一下deepspeed11.训练用一个7b模型要占用多少显存?不同zero阶段能够节省多少显存?12.训练模型时用了几张卡,有遇到什么异常中断问题吗?反问: 在乎候选人什么能力?对面试表现有哪些改进意见?💣评价: 基础不够扎实,网上有的知识都能回答上来,在同龄人里算比较优秀,欠缺一些多机多卡实践经验。  
查看17道真题和解析
点赞 评论 收藏
分享
评论
11
53
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务