攒人品:小米 大模型算法面经

  1. flash attention解释下
  2. gqa解释下
  3. 怎么才能训练好一个sft过程?
  4. sft的loss计算是用什么计算的?
  5. lora原理
  6. lora参数权重初始化
  7. lora的r和缩放参数
  8. dpo的loss
  9. dpo数据集怎么构造比较好?
  10. 如果dpo训练过程中,accept回答和reject回答的loss都在升高,怎么办?
  11. 假如说dpo效果不好,怎么解决?
  12. 多轮对话一般要怎么训练?
  13. rag的流程?
  14. 检索时,只用关键字匹配会存在问题,怎么具体解决?(没有上下文语义信息)
  15. 给定一个网页,如何提取其中的关键信息
全部评论
你这是base哪里的,低几轮面试的
点赞 回复 分享
发布于 01-25 18:56 陕西
请问base是哪里的呀
点赞 回复 分享
发布于 2025-12-29 16:33 江西
是南京的岗位吗
点赞 回复 分享
发布于 2025-12-24 21:30 北京
你这个base是那里的
点赞 回复 分享
发布于 2025-12-24 19:08 陕西

相关推荐

给我面没招了。。。1. 项目拷打2. 详细阐述Transformer的底层原理,并说明其能够替代RNN的核心优势;结合Transformer架构的成熟度,分析Self-Attention机制在多模态对齐任务中是否存在瓶颈,以及在实际业务场景中,是否出现过注意力权重完全偏移的情况。3. 讲解LoRA的技术原理,说明LoRA是否仅能嵌入Linear层;分析LoRA无法在LayerNorm层之后插入的原因,以及该操作会对模型训练稳定性产生哪些具体影响。4. 结合实操经验,说明QLoRA降低训练资源成本的核心逻辑;列举常见的模型量化方式,并解释QLoRA选择NF4与FP16组合而非其他方案的原因,阐述NF4的分布拟合逻辑。5. 针对采用multi-query attention优化后,decoder延迟仍居高不下的问题,分析潜在性能瓶颈;探讨vLLM自带的KV Cache是否会成为推理过程中的负担。6. 分别说明Embedding模型与Rerank模型处理文本语料的核心流程,并结合实际应用场景举例说明。7. 结合过往RAG项目经验,讲解从数据清洗到检索服务上线的完整链路搭建流程,重点说明chunk切分的具体策略。8. 分析当前RAG技术落地的最大瓶颈,并阐述你在项目中采取过哪些优化手段来提升检索召回率(Recall)。9. 针对XX领域大模型的训练工作,说明SFT(监督微调)数据集的构造方法与核心思路。10. 结合LoRA微调实操经历,说明rank值的选择依据;在合并adapter权重的过程中,是否遇到过梯度爆炸问题,以及对应的解决方法。11. 结合你的模型部署相关经验,说明模型参数量与硬件算力需求之间的对应关系(例如不同参数量级模型所需的算力配置标准);以部署一个稀疏率千分之三的235B参数量MOE架构模型为例,估算其所需的算力规模。12. 在搭建RAG知识库时,若需对文档进行动态更新,你采用的是全量嵌入还是增量处理方案?若为增量处理,如何规避新旧文档数据分布不一致导致的检索偏差问题。
点赞 评论 收藏
分享
评论
3
10
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务