百度 实习 大模型 一面

这次面试的问题都比较有意思,记录一下:
1、介绍一下之前工作的业务场景(code LLM)
2、你微调过这么多不同家的大模型(LLama、Qwen、codellam、mistral等),都有什么区别(在业务上,并不是八股结构)
3、在业务上比较有效的微调手段
4、具体代码翻译场景下,遇到的两种不同语言的函数不能完全一致对应,该用什么方法解决。
    我提出说用一些RAG可以解决
5、使用工程手段解决4好,还是使用SFT解决4好,
6、如何进行5的SFT
    我认为这是一个较难的问题,还是说之前在工作的时候是使用RAG解决的,此外又讲了一些在数据构造上的手段和prompt上的手段
7、面试官认为可以使用RLHF解决(似乎他没有完全理解我说的业务场景)
    讲了使用DPO的做法
8、讲一下DPO、PPO、GRPO、KTO
    其他的讲了,不了解KTO
8.5、为什么不考虑对Base直接做DPO

9、问DPO的数据如何构造
10、问RAG问题的痛点在哪里、优点在哪里
11、是否了解COT
    讲了另外一段NLP实习做的COT的经历
11.5、问COT从数理逻辑上为什么奏效
12、问之前具体负责了哪些工作,是否具体做过训练的内容
    表明做过(正常流程下面要问DeepSpeed了,但并没有问)
13、问Attention上都有哪些优化措施
    把GQA和FlashAttention搞混了

好像这次面的比较差,可能要挂,来攒攒人品
全部评论
过了没佬,度一面就这么猛,是文心部门吧,真卷
点赞 回复 分享
发布于 04-12 02:16 浙江

相关推荐

09-22 15:45
门头沟学院 Java
谁给娃offer我给...:我也遇到了,我说只要我通过面试我就去,实际上我根本就不会去😁
点赞 评论 收藏
分享
评论
1
15
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务