字节跳动ailab面经

楼主上海交大学硕,研究生主要做视频理解,前两天有幸拿了意向书,岗位是CV算法。现在整理下面经回馈下牛客网,也是趁着自己没忘及时整理。就不按面试顺序整理了,按照内容整理吧,欢迎大家一起讨论。

实习:
楼主在腾讯优图实验室实习了接近一年,主要工作有三个方面
1.拿了个kaggle第一名
2.某大型项目全程参与,数据端 算法端都有负责,该项目竞标过程中打败了很多同行,不能具体说技术细节,各位见谅~
3.新型Anchor-free的目标检测框架(AAAI论文)

面试内容:
1.kaggle比赛:
标签相关性分析,数据增强,特征融合不同方式及其优缺点,attention(channel和pixel
两种方式的具体实现),2D CNN全套,损失函数该如何设计,fine grained有哪些解决方法
2.常规目标检测
发展过来的前世今生,yolo全套,ssd,faster rcnn具体细节,代码实现,工程中需要考虑的实际问题
3.非常规目标检测
RRPN,R2CNN(感觉面试官不是很了解这个方向,所以一直是我在说),还有我自己的框架
4.anchor free框架
基本思想,不同网络的具体对比,hourglass结构的好处,损失函数,我自己的框架具体结构,和sota比性能如何(map更高速度更快),新的损失函数为什么这么设计
5.3D卷积
和2D卷积的区别,主要存在问题,如何加速运算,视频理解的sota方法,还有什么方向可以改进
6.某大型项目
实施细节(面试官对这个很感兴趣),公然po到网上担心引起问题,故不详细展开
7.算法题
每一次面试都是我讲完论文项目实习,就快一个小时了,所以算法题也没怎么做比较难的,很快写完了。

总结:
1.注重对sota方法的了解程度,需要大量看最新顶级的论文
2.注重对具体问题的分析与解决,有的方法实际上项目的时候并不适用(考虑清楚为什么)
3.注重原理的理解而不是方法看起来有多fancy,原理至上,所以一定要理解透彻。

还要赶别家的面试,很多东西没有详细展开讲,有空接着写~希望对大家找工作有所帮助



#字节跳动##面经##实习##算法工程师#
全部评论
快看!神仙
10 回复 分享
发布于 2019-08-05 11:21
巨佬。。。话说导师竟然能放你实习一年。。
点赞 回复 分享
发布于 2019-08-05 14:55
上次投阿里达摩院要求是有竞赛经历 或者 顶会论文,或者大厂实习经历,有其一就行,你这有3个全有,稳的一匹,羡慕
点赞 回复 分享
发布于 2019-08-05 14:07
看楼主比赛和论文都是在实习时发的,想知道在一无所有时怎样进入这个一个好的实习?
1 回复 分享
发布于 2019-12-25 15:30
太强了!
点赞 回复 分享
发布于 2020-03-05 23:19
巨巨巨佬
点赞 回复 分享
发布于 2019-12-25 15:44
仰慕大佬!!!
点赞 回复 分享
发布于 2019-09-06 16:34
楼主,我想知道你找实习时候的简历大概是什么程度的?
点赞 回复 分享
发布于 2019-08-20 10:37
神仙
点赞 回复 分享
发布于 2019-08-20 09:42
 kaggle第一 顶会论文 好实习 楼主你是真的牛啊
点赞 回复 分享
发布于 2019-08-20 09:29
这种面经应该提前两年发,才有时间去打比赛和发论文😂😂😂
点赞 回复 分享
发布于 2019-08-12 22:15
私信加微信的亲们不好意思啦,牛客网经常上的~就用牛客网联系吧~
点赞 回复 分享
发布于 2019-08-07 17:30
沾沾仙气,谢谢神仙分享~
点赞 回复 分享
发布于 2019-08-06 19:58
git能放出来吗
点赞 回复 分享
发布于 2019-08-06 00:15
神仙
点赞 回复 分享
发布于 2019-08-05 14:55
神仙
点赞 回复 分享
发布于 2019-08-05 14:54
楼主最后一面是啥时候面的
点赞 回复 分享
发布于 2019-08-05 13:32
牛皮
点赞 回复 分享
发布于 2019-08-05 13:30
。。神仙 
点赞 回复 分享
发布于 2019-08-05 13:18
= =这根本不需要面经 直接过的那种
点赞 回复 分享
发布于 2019-08-05 13:15

相关推荐

✅一面1️⃣时间:1h+自我介绍2️⃣项目介绍:问的很细,过程中不停打断提问算法竞赛项目,整体数据处理流程、模型效果评估方法、心得体会3️⃣八股:简单介绍一下 BERT 和 TransformerAttention 和 self-attention 有什么区别?4️⃣Transformer 的复杂度Bert 用的什么位置编码,为什么要用正弦余弦来做位置编码?还知道其他哪些位置编码?5️⃣除了 bert 还做过哪些模型的微调?为什么现在的大模型大多是 decoder-only 的架构?6️⃣讲一下生成式语言模型的工作机理用过 LoRA 吗?讲一下原理?7️⃣算法题最大子段和跳台阶其他问后续安排和实习时长,以及反问✅二面1️⃣自我介绍2️⃣项目:深挖八股Transformer 结构和 LSTM 的区别和优势,Transformer 怎么体现时序信息?3️⃣Transformer Encoder 和 Decoder 的输入输出和结构BatchNorm 更多用在视觉上,LayerNorm 更多用在语言上,为什么有没 chatGLM,LLaMA 等部署、微调经历?4️⃣有没有了解过大模型加速推理?5️⃣讲一下 Flash Attention?6️⃣算法题先说思路再写代码1、数组中的第K个最大元素2、数组 nums 表示若干个区间的集合,请你合并所有重叠的区间,并返回一个不重叠的区间数组,该数组需恰好覆盖输入中的所有区间。输入: nums =[[1,3],[2,6],[8,10],[15,18]]输出:[[1,6],[8,10],[15,18]]📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
查看20道真题和解析
点赞 评论 收藏
分享
✅一面1️⃣深挖多模态论文2️⃣介绍transformer架构3️⃣详细说一下Decoder的因果注意力 QKV分别来自哪4️⃣Attention为什么要做scaled 不做会怎么样 为什么用根号d_k5️⃣Transformer怎么做加速训练(KV缓存) 训练和推理有什么区别(并行化)6️⃣深挖多模态大模型论文用的video-llama 讲一下大模型的结构7️⃣论文用了CoT讲一下论文的CoT是怎么样的8️⃣微调用的LoRA介绍一下LoRA9️⃣LoRA初始化怎么做的,用的秩是多少,为什么不选其他的数1️⃣0️⃣知道deepspeed和megatron吗?分别介绍一下1️⃣1️⃣论文用的deepspeed详细讲了一下三个stage分别是什么✅二面1️⃣深挖多模态和大模型的论文2️⃣Decoder文本生成有哪几种方法3️⃣还知道哪些多模态大模型4️⃣介绍一下ALBEF、BLIP5️⃣BLIP2的结构是什么  两阶段怎么训练的 有哪些损失6️⃣知道PEFT吗 讲一下LoRA7️⃣还有什么微调方法 -> prefix-tuning和P-tuning 两者分别是怎么做的 为了解决什么提出的8️⃣后面就是一些场景题✅三面1️⃣深挖论文2️⃣讲一下multi-head attention 用pytorch手撕一下 要可以实现cross attention的3️⃣讲一下你用的大模型是什么结构 特征是怎么喂给大模型的4️⃣大模型训练为什么不用SFT5️⃣LoRA是什么?有什么好处6️⃣知道RLHF吗?讲一下训练流程7️⃣接下来就是好几个场景题,电商相关的,用大模型解决prompt应该怎么设计,怎么处理prompt的输出,怎么过滤错误格式的输出📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
字节跳动三面467人在聊 查看23道真题和解析
点赞 评论 收藏
分享
评论
24
111
分享

创作者周榜

更多
牛客网
牛客企业服务