vivo杭州nlp算法实习面经

LSTM三种门以及sigmoid函数对每个门的作用


Self-attention的Query,Key,Value分别是什么。乘积是什么和什么的Query和Key相乘


Slef-attention的乘法计算和加法计算有什么区别?什么时候乘比较好,什么时候加


为什么要除以一个根号?


多头注意力机制的原理是什么?


Transformer用的是哪种attention机制?


画一下Transformer结构图


面完挂了。感觉还是看论文不够细致,平时写代码经常看几眼原理就调包调参了……

#实习##面经##vivo##算法工程师#
全部评论
楼主这是提前批吗,还是正式批的投递呢
点赞
送花
回复
分享
发布于 2020-07-31 18:55
老哥是收到感谢信了吗
点赞
送花
回复
分享
发布于 2020-08-01 17:42
滴滴
校招火热招聘中
官网直投
这个2,3,4,5不是同一个问题吗?
点赞
送花
回复
分享
发布于 2020-08-02 11:56
全都是问的Transformer了吧
点赞
送花
回复
分享
发布于 2020-08-02 13:24
Slef-attention的乘法计算和加法计算有什么区别?什么时候乘比较好,什么时候加? 问一下楼主这个题怎么回答的
点赞
送花
回复
分享
发布于 2020-08-03 09:16
没有考编程吗
点赞
送花
回复
分享
发布于 2020-09-06 02:28

相关推荐

4 27 评论
分享
牛客网
牛客企业服务