4 轮拿下字节Offer!LLM面试题合集
一面(mentor1):
自我介绍
实习项目1: 项目里RAG怎么做的,怎么设计的召回排序链路,embedding召回和粗排有哪些方案,怎么评估promptengineering后的效果,数据pipeline的形式,怎么用到Agent的了解 ReAct吗,了解强化学习和奖励函数吗?
实习项目2: 微调模型选型原因,为什么不考虑大参数模型,为什么用LORA,微调数据pipeline,数据集细节,数据整合策略,为什么混合训练,出现新数据加入后离线评估掉点怎么办,会vm吗?Llama架构,Qwen架构
代码: 编辑距离(ACM格式)
二面(mentor2):
自我介绍
实习项目1: 项目背景?LLM的输出是什么?RAG用的Embedding模型是哪个?会有误判的情况嘛?怎么解决?遇到的其他困难?如果项目结果仍然不被公司内部同事接受,该怎么让这个服务在全公司范围内开展和运作?
实习项目2: 微调数据怎么来的?有没有做数据增强?有没有考虑过针对这个业务做改进实现无标注自动获得数据?翻译错误识别的 AUC如何计算?有试过用 SOTA模型代替微调嘛?如果识别出结果,后续怎么解决?和我讨论了一下业务相关的可行方案(字节大佬拍脑袋一想的就是当时公司里真的在用的,太6了)
八股: LORA和全参SFT有啥区别?LORA是插入新一层参数还是在原本参数上进行调整?秩不一样,怎么把微调结果应用到原本的矩阵?口述注意力公式;Q、K、V分别是什么,怎么获得,有什么用;为什么除以根号dk;和我讨论为啥不是除以 dk?
代码: LC 141.环形链表,要求空间复杂度O(1),ACM模式要自己定义链表类
三面(部门leader):
自我介绍
实习项目1(拷打实现细节): 业务背景,项目谁主要负责的,准确率如何评估,pipeline细节,如何设计提示词模板,遇到的困难,用的什么模型,怎么解决模型幻觉,怎么解决tokenlength限制,模型输入输出是什么,如何针对反馈出现的问题做改进?
实习项目2(拷打实现细节): 部门业务背景微调的必要性,为什么不用 SOTA闭源模型:模型选型理由,模型输入输出是什么,如何做评估,怎么权衡Recall和Precision,为什么最终没有上线?