字节又挂挂挂我!全程都很融洽都能被挂!

刚结束之前的流程就被捞起来了 全程大概1h15min
还是先自我介绍,提问论文(大概20min):
1.介绍一下论文的Transformer-based model
2.Embedding采用的方式
3.和Transformer的不同点
相比之前对项目的拷打这次的一面以机器学习基础知识为主(记不太全了)
1.Transformer哪几层有参数(qkv,LN),推一下Transformer中参数量O(n^2)
2.优化器了解吗,推导一下Adam
3.BN和LN区别
4.序列建模的方法了解吗,比如target attention
手撕:
1.手写LR反向传播
2.leetcode最长递增子序列 dp秒了
反问:
跟面试官聊了一下推荐的职业路线和如何学习,聊了很长时间
全部评论

相关推荐

不愿透露姓名的神秘牛友
05-21 00:27
点赞 评论 收藏
分享
qq乃乃好喝到咩噗茶:院校后面加上211标签,放大加粗,招呼语也写上211
点赞 评论 收藏
分享
ALEX_BLX:虽然说聊天记录不可信,不过这个趋势确实如此但我觉得也要想到一点就是卷后端的人里真正有“料”的人又有多少,我说的这个料都不是说一定要到大佬那种级别,而是就一个正常的水平。即使是现在也有很多人是跟风转码的,2-3个月速成后端技术栈的人数不胜数,但今时不同往日没可能靠速成进大厂了。这种情况就跟考研一样,你能上考场就已经打败一半的人了
点赞 评论 收藏
分享
评论
3
9
分享

创作者周榜

更多
牛客网
牛客企业服务