字节抖音NLP部门一面

1.自我介绍
2.拷打论文
围绕论文的一些问题
2.1有哪些常见的图卷积
2.2指标
2.3attention是怎么做的
3.拷打另一篇论文
围绕论文的一些问题,延展八股
transformer架构
layer norm和batch norm 区别
自注意力结构
T5架构和任务设计
Bert的最大长度限制
了解哪些attention方式
encoder和decoder区别
4.拷打项目
常见的微调方式
open性问题:你觉得llm和传统的nlp模型的区别在哪?
5.手撕代码:三数之和
#一面面经#
全部评论
最近好多一轮游,心态炸了,不管怎么说,许愿复试
点赞
送花
回复
分享
发布于 04-19 15:09 广东
老哥,抖音NLP招聘在哪找的啊,搜索不到啊
点赞
送花
回复
分享
发布于 05-09 11:37 天津
秋招专场
校招火热招聘中
官网直投

相关推荐

感觉寄了()前后加上自我介绍一共31分钟,感觉完全是没什么兴趣,,当然这和本鼠简历一坨脱不了干系..随缘记一下吧,今年估计没有实习了,明年再整😅开头:自我介绍,没什么可说的,随便问了下提的相关经历,问了下最长实习时间(感觉这一步已经可以埋了)然后问了下项目,说是项目其实本鼠也就只有一个bert微调稍微沾点边,扯了半天才把项目说清楚,然后问了我大致流程,基本上算把bert架构讲了一下,不过现在回想当时确实很急,好多地方讲的很不清楚。问怎么优化,说的是把二次加权kappa系数作为损失函数(但是口误说成卡方系数),然后面试官让讲一下“卡方系数”,吱吱唔唔半天没想起来,只想起来上边,分母忘了。然后问transformer架构,应该答上来了,不过encoder,decoder中间可能口误了,然后问了下这俩分班能做什么,回答是encoder可以像bert这样做一下迁移学习的下游任务,decoder不理解,gpt好像用的这个架构()然后问知不知道lora,不知道问了道题目,但是哥们题目都没听清,稀里糊涂的答了一下,自己感觉都一坨😅 这段也寄最后因为简历太拉没什么可拷打的了,在大概20分钟的时候说抽到题给我做..题:三数之和,本鼠对传统算法题一点没了解,考前看面经看到两个,一个是这个,一个是旋转矩阵,就看教程看了一下,结果真抽到了😚😚感谢前边大佬的面经orz,不过属鼠倒是写出来了,但是!我不知道怎么输入,,和leetcode不一样啊😭写完函数上哪去输入nums啊😅给面试官都整无语了,最后他看了下我的代码让我讲讲过程,问了下时间复杂度就没后续了。最后反问,感觉没什么问的,就结束了用时30min整,面之前跟哥们说他们先开几局lol我随后到,面完兄弟们第一把还没整完😅orz磕了,说不定hr就是话少😋,说不定嘎嘎缺人😏,说不定只有我自己投😍😎😎😭准备了好多都没有问,专门看了一下压根不用的机器学习算法和归一化,优化器这种,结果好像根本没撑到问这块直接被谬啥了😭玉玉等下学期啦😤 #沉淀#拉爆你舍友# 165白皮大学生# #我的实习日记#
查看5道真题和解析 我的实习日记
点赞 评论 收藏
转发
1 3 评论
分享
牛客网
牛客企业服务