一面 项目介绍八股文:- LLM Decode 策略- Greedy Search 和 Beam Search- Greedy Search 是最优的吗?- LoRA? 初始化?计算复杂度?笔试题:- 合并多个链表二面二面项目倒是问的挺多的,甚至面试官还看过简历里的论文,专门问了论文里他看的一些我没讲到的点八股文:- Transformer 的整体时间复杂度- 一层 Transformer 内部的时间复杂度?以及 Attention 的占比?笔试题:- 有 min_size 和 max_size 约束的 kmeans 实现,即每个蔟内的点的数量有限制。