4.24滴滴大模型算法一面面经

1. 自我介绍
2. 过一下你觉得最好的项目/实习。说了一个教程类开源项目,其中包括部署、LoRA微调等内容。又说了了另一个在学校做的项目,问的很细,包括我们使用Function Call做检索的流程、用langchain如何实现的,内部原理是什么。
3. 下一个项目BERT相关的,问了问Transformer的原理结构,他的优点是什么,我讲的是他是不限制距离计算,有效遏制了经典RNN模型的长序列遗忘问题。问了问BERT的原理,幸好看过原论文,简单说了下。
4. 下一个项目是做的Qwen SFT,训练数据如何生成的,多少数据,训练的参数,训了多久。
5. 问了强化学习deepseek,我答了GRPO和PPO,问了DPO我没看过。
6. medium题
全部评论
开源项目经验加分
1 回复 分享
发布于 05-03 17:40 广东
佬,开源项目可以分享一下吗
点赞 回复 分享
发布于 05-13 11:46 广东
方便问问佬bg吗
点赞 回复 分享
发布于 04-29 14:03 浙江
求问是哪个部门啊
点赞 回复 分享
发布于 04-28 13:53 四川
佬,可以问一下是哪个部门吗,我们的问题好相似
点赞 回复 分享
发布于 04-28 09:21 浙江

相关推荐

1️⃣一面时间:9.12  时长:1hcode:统计岛屿数量、最大岛屿面积,DFS方法解了然后介绍实习项目,面试官非常耐心地听,没有打断八股1.bert和gpt的区别?(从模型架构、训练方式、使用场景方面回答的)2.训练/微调一个LLM的流程?3.实习时用的 megatron 框架吗,对分布式训练框架了解多少?(回答了deepspeed和megatron区别,以及几种并行方式,以及deepspeed的三种zero)4.了解强化学习吗,跟SFT有什么区别?5.反问:业务,对岗位的期望💣评价:有点紧张,算法题有一个小失误没注意到2️⃣二面时间:9.14  时长:1h八股1.写一下 attention 公式(代码实现了下)2.训练时为什么要mask,推理时也需要吗?两处有什么区别?推理时的sequence length和训练时一样吗3.transformer和传统seq2seq模型有什么区别?4.计算attention时为什么要除以d_k,这个d_k的含义是?5.attention计算时还有哪些scale处理?6.attention中softmax函数作用、公式、为什么有减去最大值的处理?换个函数还能这样处理吗?7.解释数值上溢、下溢问题8.讲一下prompt书写的经验,如何判断prompt是否达标,如何改进prompt9.讲一下SFT,会对哪部分计算loss?为什么?10.讲一下deepspeed11.训练用一个7b模型要占用多少显存?不同zero阶段能够节省多少显存?12.训练模型时用了几张卡,有遇到什么异常中断问题吗?反问: 在乎候选人什么能力?对面试表现有哪些改进意见?💣评价: 基础不够扎实,网上有的知识都能回答上来,在同龄人里算比较优秀,欠缺一些多机多卡实践经验。  
查看17道真题和解析
点赞 评论 收藏
分享
评论
5
28
分享

创作者周榜

更多
牛客网
牛客企业服务