美团推荐算法一面
岗位名称:推荐算法
面试时长:1h+
自评分:7/10
是否下一轮:待通知
一、检索与排序
- 在项目中使用的 BM25 原理是什么?相比 TF-IDF 改进在哪里?公式中每一项的含义是什么?
- (追问)k1 和 b 参数分别控制什么?如果 b=0 会发生什么?
- 为什么在实际系统中要做混合检索?
- Sparse 检索和 Dense 检索的基本原理分别是什么?
- (追问)两种方式在长尾 Query 上的表现差异如何?
- Dense 检索中常见的相似度度量方式有哪些?为什么很多系统选择 Cosine 或 Inner Product?
- (追问)如果向量没有归一化,Inner Product 和 Cosine 的结果会有什么差异?
- 在你的系统中,Sparse 和 Dense 的结果是如何融合或召回合并的?权重是怎么定的?
- (追问)权重是人工调参还是通过学习得到?有没有做过 ABTest?
二、重排序与模型训练
- Reranker 在整体检索链路中解决的是什么问题?
- (追问)如果没有 Reranker,线上效果会下降在哪些指标?
- Reranker 模型的训练数据通常如何构造?正负样本从哪里来?
- (追问)负样本是随机采样还是 Hard Negative?为什么?
- 如果线上只有弱标签甚至没有人工标注,Reranker 如何进行微调或持续优化?
- (追问)是否考虑过蒸馏或自训练方式?
- Reranker 和 Cross-Encoder / Bi-Encoder 的关系是什么?各自的取舍点在哪里?
- (追问)在大规模在线系统中为什么 Cross-Encoder 不适合作为第一阶段召回?
三、Query 理解与改写
- 为什么要做 Query 改写?它在召回和排序阶段分别能带来什么收益?
- (追问)是否会引入噪声?如何控制风险?
- 常见的 Query 改写方式有哪些?规则、模型、生成式方法各自优缺点?
- 在你的项目中,Query 改写的核心做法是什么?
- (追问)有没有做过离线评估和线上对比?效果如何衡量?
- 有没有读过或参考过 Query 改写 / Query Expansion 相关论文?印象最深的是哪一篇?
- (追问)论文里的方法是否真正落地过?落地时遇到什么问题?
四、LLM 训练目标 & 优化方法
- GRPO 损失函数是什么?公式中每一部分分别起什么作用?
- (追问)相比 PPO,它在稳定性或样本效率上有什么区别?
- GRPO 相比传统 RL 或 SFT 的优势在哪里?为什么要这样设计?
- 在大模型训练过程中,Transformer 通常会更新哪些参数?哪些可能被冻结?
- (追问)LoRA 插入在哪些层?为什么?
- 从工程角度看,你是如何优化大模型训练和推理效率的?
- (追问)有没有做过算子融合或 KV Cache 优化?
五、Embedding 模型与表示学习
- 项目中使用的 Embedding 模型结构是什么?是 Encoder 还是双塔?
- (追问)为什么选择这种结构?
- 输出向量的维度是多少?维度大小如何影响检索效果和性能?
- (追问)维度翻倍,召回效果一定更好吗?
- Embedding 向量在实际使用中是如何做归一化、存储和索引的?
- (追问)使用了哪种 ANN 索引结构?为什么?
六、算法手撕
- 手撕算法:合并两个数组并去重,如何保证时间复杂度?
- (追问)如果数组本身有序,是否可以优化?
- 手撕算法:求前 K 个最小值,使用最小堆实现。
- (追问)最小堆底层用什么数据结构实现?时间复杂度是多少?
- 手撕算法:子集型回溯问题。如果输入列表中可能包含重复元素,如何避免重复解?
- (追问)排序在这里起什么作用?
2026春招面经 文章被收录于专栏
汇总本轮春招的真实面试题与考察方向,对外分享,希望帮助大家降低信息差,在准备上更有针对性,从而提升通过概率。

