百度 实习 大模型 一面

这次面试的问题都比较有意思,记录一下:
1、介绍一下之前工作的业务场景(code LLM)
2、你微调过这么多不同家的大模型(LLama、Qwen、codellam、mistral等),都有什么区别(在业务上,并不是八股结构)
3、在业务上比较有效的微调手段
4、具体代码翻译场景下,遇到的两种不同语言的函数不能完全一致对应,该用什么方法解决。
    我提出说用一些RAG可以解决
5、使用工程手段解决4好,还是使用SFT解决4好,
6、如何进行5的SFT
    我认为这是一个较难的问题,还是说之前在工作的时候是使用RAG解决的,此外又讲了一些在数据构造上的手段和prompt上的手段
7、面试官认为可以使用RLHF解决(似乎他没有完全理解我说的业务场景)
    讲了使用DPO的做法
8、讲一下DPO、PPO、GRPO、KTO
    其他的讲了,不了解KTO
8.5、为什么不考虑对Base直接做DPO

9、问DPO的数据如何构造
10、问RAG问题的痛点在哪里、优点在哪里
11、是否了解COT
    讲了另外一段NLP实习做的COT的经历
11.5、问COT从数理逻辑上为什么奏效
12、问之前具体负责了哪些工作,是否具体做过训练的内容
    表明做过(正常流程下面要问DeepSpeed了,但并没有问)
13、问Attention上都有哪些优化措施
    把GQA和FlashAttention搞混了

好像这次面的比较差,可能要挂,来攒攒人品
全部评论
过了没佬,度一面就这么猛,是文心部门吧,真卷
点赞 回复 分享
发布于 2025-04-12 02:16 浙江

相关推荐

攒人品中,祝大家都能拿到满意的Offer!1.项目拷打2生成式推荐本质上是在做隐空间到离散iD的映射,你如何证明你生成的 ID 序列保留了用户意图的最优压缩3.比如广告场景下不仅仅是预估 CTR。如果我们将生成式排序引入 GSP拍卖,大模型生成的候选列表概率分布,如何保证满足激励相容性4如果模型生成的排序导致广告主出现竞价上的博弈呢5.在H100集群上跑生成式重排,现在的瓶颈不在计算而在存储带宽。如果分阶段推理,我在Prefill阶段采用了FlashAttention-3,但在 Decoding 阶段因为 KV Cache 导致的Fragmented Memory太严重,怎么办6.推荐系统要求毫秒级响应对于1B规模的排序模型,如果我要做Speculative Decoding,你如何设计那个Draft Model?这个小模型是该学大模型的 Logits 分布,还是该学用户的Embedding聚类7.假设构建一个端到端生成式广告系统。现在面临一个场景:某个新入驻的土豪广告主投放了一批高质量视频,但由于模型对新 ID 的 Semantic Indexing 尚未完全对齐,导致第一波推荐给了错误的人群,产生了极高的 Negative Feedback,生成式模型的自回归特性会不断放大这种“第一印象”,导致该广告主瞬间被屏蔽你如何设计一套Online Counterfactual Correction这种,在不重新训练模型的前提下,通过修改 KV Cache里的隐藏状态来强行挽回这批广告的生命周期9.在短视频重排阶段使用了一个 10B 的生成式模型但是业务反馈说模型在学会了今天最火的某个梗以后,竟然忘记了如何处理用户对“长尾科普视频”的旧兴趣,发生了明显的 Catastrophic Forgetting,设计一种基于 Gradient Orthogonal Projection的优化器,确保模型在更新实时热点知识时,参数更新量在旧知识的Null Space内。10.都知道生成式模型有位置偏差从 Attention Entropy 的角度来看,为什么 $N$ 个候选 Item 在序列中的排列顺序会直接导致 Logits 的非线性漂移
查看9道真题和解析
点赞 评论 收藏
分享
评论
1
15
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务