抖音校招大模型算法一面

1.八股:LoRA 和全参数微调的核心区别是什么?在显存和训练效率上各有什么优劣?
2.八股:DPO、PPO、GRPO 三者的优化目标有何不同?为什么 GRPO 的 loss 中要显式加入 KL 散度项?
3.八股:Transformer Encoder 中 FFN 的作用是什么?
4.八股:什么是 DeepSeek 的 MLA?它的优势是什么?
5.项目: 你在实习中用 LoRA 微调了哪个开源大模型?具体 rank、alpha、dropout 是多少?为什么这样设置?
6.项目:SFT和DPO 数据是否有重叠?DPO 的偏好数据是如何构造的?人工标注成本大概多少?
7.项目:你们的 RAG 系统召回阶段用了 BGE-M3 还是 BM25?最终选择依据是什么指标(如 Recall@k)?BGE-M3 输出向量维度是多少?
8.项目:为什么不用纯向量相似度直接生成答案,而要再过一遍大模型?这样做对幻觉和安全性有什么帮助?
9.手撕:接雨水(LeetCode 42)
全部评论
你最近面的,这么完啊
点赞 回复 分享
发布于 2025-12-27 20:52 陕西

相关推荐

03-21 04:30
门头沟学院 Java
发点面经攒攒人品~1.实习介绍2.拷打第一个项目3.拷打第二个项目4.在向量化之前,为什么要对长文档进行切片?如果不切片会有什么后果?5.切片时设置重叠区域的作用是什么?这个比例你通常怎么来确定?6.讲一下稠密向量与稀疏向量的区别,分别适合处理什么样的搜索需求?7.向量库检索出的Top-K结果,如果K值设置得过大,对后续的生成质量有哪些负面影响?8.余弦相似度和欧氏距离在衡量文本相似性时,各自的优缺点是什么?9.为什么在初筛召回之后,还要加一个Rerank模型?它能解决向量搜索的哪些局限?10.如果文档发生了局部更新,如何通过增量索引来避免全量重新向量化?11.在RAG的生成阶段,如何在Prompt中设定边界条件来防止模型在没搜到内容时产生幻觉?12.了解HyDE吗?介绍一下原理,它在处理模糊提问时有哪些优势?13.随着超长上下文模型的出现,你认为传统RAG架构的必要性是否降低了?14.你了解哪些大模型推理框架?SGLang相比vLLM的PagedAttention在推理延迟上有哪些优势?15.调用大模型API时,为什么要使用asyncio异步编程?它在处理高并发请求时有何优势?16.针对大规模PDF解析这种任务,你选择多线程还是多进程?17.如何确保Agent返回的结果是标准的JSON格式?如果模型输出中有多余的说明文字,你在后端如何提取?18.场景题:对于RAG,如果检索到了针对同一故障的两份手册,内容相互冲突,请你设计一套逻辑,让模型能够识别冲突并优先选择时效性更高的信息?19.手撕:第k大元素
查看19道真题和解析
点赞 评论 收藏
分享
评论
3
13
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务