4 轮拿下字节Offer!LLM面试题合集

一面(mentor1):

自我介绍

实习项目1: 项目里RAG怎么做的,怎么设计的召回排序链路,embedding召回和粗排有哪些方案,怎么评估promptengineering后的效果,数据pipeline的形式,怎么用到Agent的了解 ReAct吗,了解强化学习和奖励函数吗?

实习项目2: 微调模型选型原因,为什么不考虑大参数模型,为什么用LORA,微调数据pipeline,数据集细节,数据整合策略,为什么混合训练,出现新数据加入后离线评估掉点怎么办,会vm吗?Llama架构,Qwen架构

代码: 编辑距离(ACM格式)

二面(mentor2):

自我介绍

实习项目1: 项目背景?LLM的输出是什么?RAG用的Embedding模型是哪个?会有误判的情况嘛?怎么解决?遇到的其他困难?如果项目结果仍然不被公司内部同事接受,该怎么让这个服务在全公司范围内开展和运作?

实习项目2: 微调数据怎么来的?有没有做数据增强?有没有考虑过针对这个业务做改进实现无标注自动获得数据?翻译错误识别的 AUC如何计算?有试过用 SOTA模型代替微调嘛?如果识别出结果,后续怎么解决?和我讨论了一下业务相关的可行方案(字节大佬拍脑袋一想的就是当时公司里真的在用的,太6了)

八股: LORA和全参SFT有啥区别?LORA是插入新一层参数还是在原本参数上进行调整?秩不一样,怎么把微调结果应用到原本的矩阵?口述注意力公式;Q、K、V分别是什么,怎么获得,有什么用;为什么除以根号dk;和我讨论为啥不是除以 dk?

代码: LC 141.环形链表,要求空间复杂度O(1),ACM模式要自己定义链表类

三面(部门leader):

自我介绍

实习项目1(拷打实现细节): 业务背景,项目谁主要负责的,准确率如何评估,pipeline细节,如何设计提示词模板,遇到的困难,用的什么模型,怎么解决模型幻觉,怎么解决tokenlength限制,模型输入输出是什么,如何针对反馈出现的问题做改进?

实习项目2(拷打实现细节): 部门业务背景微调的必要性,为什么不用 SOTA闭源模型:模型选型理由,模型输入输出是什么,如何做评估,怎么权衡Recall和Precision,为什么最终没有上线?

#大模型##考研可以缓解求职焦虑吗##你喜欢工作还是上学##考研失败就一定是坏事吗?##大学生该如何认清当下的就业环境?#
全部评论

相关推荐

09-22 14:41
已编辑
门头沟学院 算法工程师
面试是24年7月的现在已经入职几个月了,补一下面经,帮有需要的同学参考。BG:本硕985 计算机论文1A1B一面:技术面自我介绍 & 简历相关。简单介绍了自己在多模态和大模型方向的研究/工作经历,包括在校期间的论文工作以及实习经历。面试官主要针对简历上的项目提了一些细节问题,比如具体模型的量级,提升了多少,和哪些方法做了比较等。因为是自己的工作,所以没有卡壳。问有没有遇到过 Python 文件之间互相 import 的问题,出现这种问题怎么办?让我简单介绍了一下 PPO 算法,以及和 TRPO 的区别是什么?接着 PPO,问了一下 ChatGPT 的 RLHF 流程,以及为什么不直接用 SFT,而是要用强化这么麻烦的方式训练模型?继续追问 RLHF、SFT、LoRA 的区别,分别适用于什么场景?反问:公司现有业务是什么,计算资源情况等。二面:主管面论文介绍。让我用通俗的语言介绍我自己发表和投稿的论文,重点是研究动机和要解决的问题。问有没有亲手训练过大模型,最多用了多少张 GPU 卡?并行训练使用的框架是什么?介绍一下 DeepSpeed,说一下这个框架在并行的不同阶段(ZeRO stage)分别做了哪些事?训练模型的时候,数据量有多少,怎么收集数据的,训练花了多少时间?遇到的最大问题是什么?问在大模型全量微调时,显存消耗分别由哪些部分占用?(参数、梯度、优化器状态、激活信息等),分别占用多少?假设模型参数量为N,请分不同情况讨论和计算一下微调所需要的显存(不同精度、batch size、seq len 等)。说一下 LoRA 公式,讲一讲其中 A 和 B 两个矩阵分别表示什么。LoRA 的优缺点是什么,什么场景下适合使用?问知道哪些大模型训练和推理框架,用过哪些?问 LLaVA 的结构是什么,和常规的纯文本大模型有什么区别?Encoder-Decoder 结构的模型转 ONNX 的一般流程,遇到不支持的算子怎么办?可能遇到的问题(动态 shape、模型中逻辑判断需要单独写、模块拆分等)。三面:HR 面主要问了为什么选择公司,对团队的看法,对岗位的认识;未来大致的规划,面试过程的体验,有没有别的公司的 offer 等。以及询问了期望薪资等。之后就是等待,最终和期望薪资基本一致。总体感受面试流程比较顺畅,问题也比较贴合岗位要求;如果和岗位匹配度高,一般流程推进速度会很快。入职以后,工作内容和面试被问的问题也差不多,基本上都是算法工程师需要做的内容,团队氛围也很不错。只是毕竟是企业,不可能光搞研究,在承接业务时还是免不了和很多人打交道和来回battle需求,这个无可避免。
查看19道真题和解析
点赞 评论 收藏
分享
1️⃣RAG 有哪几个步骤?Step1:将文本分割成块;Step2:使用编码模型将这些块嵌入到向量中,将所有这些向量放入索引中;Step3:LLM 创建一个提示,告诉模型根据我们在搜索步骤中找到的上下文来回答用户的查询。2️⃣实际项目中RAG有哪些优化技巧?首先召回源会考虑多路召回,在召回后面增加一个重排序的阶段,提升召回的质量。另外,重排序模型以及生成模型会根据系统问答的指标情况,进一步微调。3️⃣RAG 中为什么会出现幻觉?出现幻觉问题主要分为两大类,一是生成结果与数据源不一致,训练数据和源数据不一致、数据没对齐或者编码器理解能力的缺陷导致;二是用户问题超出了大模型的认知,用户的问题不在语言模型认知范围内导致。4️⃣RAG 一般怎么做效果评估?RAG 做效果评估主要是针对检索和生成两个环节。对检索环节,我们可以采用 MRR 即平均倒排率,前 k 项的 Hits Rate 命中率, NDCG 排序指标等。生成环节首先是量化指标,再评估生成答案的多样性,看看模型是否能够生成多种合理且相关的答案。还需要引入人类评估,考虑资源效率。5️⃣针对幻觉的问题,有什么解决思路?加入一些纠偏规则,比如采用 ReAct 的思想,让大模型对输出的结果进行反思。还有一种思路是集成知识图谱,即不再局限于向量数据库匹配,做召回时不仅考虑文档块,同时还考虑图谱的三元组。将知识图谱( KGs )集成到 RAG 中,通过利用知识图谱中结构化且相互关联的数据,可以显著增强当前 RAG 系统的推理能力。6️⃣在实际做项目中,经常遇到各种边界的 case ,一般怎么解决?这个需要分情况来看,首先是无效问题:如果对于知识库中没有的问题,我们需要做一个准入的判别,判断是否需要回答。一般是一个二分类模型,或者直接用大模型+ prompt 来做,使模型在这种情况下输出一个预设的兜底话术。第二个是减少幻觉,在推理模块中添加规则和提示工程技术。还有一种是格式错误:模型可能会生成无法解析的答案,这种可以设计一个备份的代理大模型,当解析失败时,可以基于代理大模型直接生成简洁准确的总结。📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
查看6道真题和解析
点赞 评论 收藏
分享
评论
点赞
7
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务