快手.大模型应用一二面

🍓一面时长约50min,面试官很和蔼,体验感还不错。
1.面试官先简单介绍了下团队,然后是自我介绍;
2.拷打了一下项目和论文;
3.为什么多头注意力能提升表达能力?
4.为什么要在大模型中使用 RMSNorm ?和 LayerNorm 有什么差异?
5.LoRA和 PromptTuning 有何区别,分别适用于什么场景?
6.模型微调时遇到过过拟合吗?怎么处理的?
7.大模型推理时的加速思路?
8.KV Cache 是怎么起作用的?为什么对长上下文推理很关键?算法题手撕:
字符串的全排列。
二叉树序列化与反序列化。
✅面试感受:整体提问节奏比较平稳,面试官很有亲和力,有的地方卡住了还会给提示。
🍓二面时长约40min,主要是针对简历进行深挖。
1.自我介绍。
2.深挖项目,针对项目思路不断追问。
3.大模型生成内容如何做去重过滤?
4.如果词表特别大(10w+ token ), Softmax 加速通常有哪些实现?
5.如果要在中文领域做 Instruction Tuning ,需要注意哪些数据问题?
6.反问
✅面试感受:二面的氛围和一面截然不同,面试官提问非常犀利,没有太多套路问题,并且对细节很关注。
📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
全部评论
同学,瞅瞅我司,医疗独角兽,校招刚开,名额有限,先到先得,我的主页最新动态,绿灯直达,免笔试~
1 回复 分享
发布于 08-28 19:38 广东

相关推荐

头像 会员标识
10-01 22:05
中南大学 C++
📍面试公司:新浪🕐面试时间:9.29💻面试岗位:大模型推理引擎工程师 一面❓面试问题:1.自我介绍2.项目2-指标提升是指吞吐量还是单个请求的token/s3.项目2-提升来自哪里(答得不会,给后面挖坑了)4.flash attention 的原理?5.项目2-用flash attention 和不用 指标差距多少(指标我是大概测得,后面要重做一下)6.项目2-是在多长序列做的测试(用了flashattention后,应该可以使用更长的序列了)7.项目2-为什么只写了decoding的提升,没有写prefill的提升(那当然是因为我没有测啊)8.项目2-什么卡,理论算力多少(不知道,已经开始冒汗了)9.项目2-nsys和ncu,你不知道理论算力,你怎么知道如何优化10.项目2-你是怎么用的ncu,看了哪些指标(只答了几个特别基础的,当时脑子跟傻了一样,啥都想不起来)11.项目2-你利用ncu,对你的算子做了什么优化(优化都是比着网上抄的,我哪里知道怎么优化啊)12.项目2-量化是调的库吗,还是自己写的?13.项目2-pageattention?是单个token还是几个token一页?14.项目2-prefix cache?15.项目2-持续批处理?16.项目2-投机解码?大小模型是什么?17.vllm用过吗(单卡用过,多卡只看过理论)18.那你讲一下多卡的TP吧(我都说没用过多卡了)19.什么时候按行来切,什么时候按列来切?(我给答反了,说成ffn按列和QKV按行了)20.按行和按列切,通信都在哪里(别问了别问了,我再去好好学一下)反问:1.我应该学什么:transformer结构要熟悉,并行要很熟悉,DP TP PP 必须很熟悉,然后多看看 ep sp一些新的,学会dense模型后,去做moe,学习跨卡的通信,比如通信和计算 overlap等。一定掌握好基础🙌面试感想:我太菜了,好好去学基础,准备春招了
查看20道真题和解析
点赞 评论 收藏
分享
评论
5
46
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务