虾皮大模型算法实习面经 攒人品

1.在 RAG 应用中是如何做效果评估具体用了哪些指标
2.如何训练用于 RAG 场景的生成模型
3.vLLM 的核心原理是什么
4.如何增强模型的多轮对话能力
5. CoT ( Chain - of - Thought )训练数据如何构造
6.介绍vL LM 、量化、 KV Cache 优化技巧
7." packing "形式和"多轮对话"形式有何区别?
8.LeetCode 72编辑距离
全部评论
感觉这个挺难的啊
点赞 回复 分享
发布于 01-24 15:54 北京
如何训练用于 RAG 场景的生成模型咋回答的啊
点赞 回复 分享
发布于 01-19 19:57 云南

相关推荐

继续来分享下之前的面经~欢迎友好讨论,信息共享1.什么是大语言模型的涌现能力?目前对该现象的研究有哪些发现?2.什么是 Embedding?词嵌入和句嵌入有何不同?3.大语言模型中的 Tokenization 是如何工作的?不同模型的分词算法有何差异?4.简述大语言模型中的 Prompt Engineering 技巧,如何设计有效的提示词提升模型输出质量?5.对比 Zero-Shot、Few-Shot 和 In-Context Learning,它们在大语言模型中的应用场景和局限性分别是什么?6.什么是 LoRA?它在大语言模型微调中的优势和原理是什么?7.大语言模型的 RLHF 训练流程是什么?它存在哪些潜在风险?8.介绍一下大语言模型中的知识蒸馏,它如何用于压缩模型体积?9.DeepSeek 优化了哪些?为什么不用 PPO,而是用 GRPO?10.对比大语言模型的增量推理和传统推理方式,增量推理的优势和实现难点是什么?11.大语言模型在推理时出现幻觉现象的原因是什么?有哪些缓解方法?12.大语言模型的长文本处理能力有限,目前有哪些技术可以缓解这一问题?13.什么是大语言模型的上下文窗口?扩展上下文窗口对模型性能有何影响?14.目前多模态大语言模型是如何融合文本与图像信息的?15.如何评估大语言模型的性能?常见的评测指标和基准数据集有哪些?16.单个 LLM 能否帮助用户完成完整行程规划,比如从出行到酒店都订好票?
点赞 评论 收藏
分享
祝大家都能拿到满意的Offer!1. 项目拷打2. 详细阐述Transformer的底层原理,并说明其能够替代RNN的核心优势;结合Transformer架构的成熟度,分析Self-Attention机制在多模态对齐任务中是否存在瓶颈,以及在实际业务场景中,是否出现过注意力权重完全偏移的情况。3. 讲解LoRA的技术原理,说明LoRA是否仅能嵌入Linear层;分析LoRA无法在LayerNorm层之后插入的原因,以及该操作会对模型训练稳定性产生哪些具体影响。4. 结合实操经验,说明QLoRA降低训练资源成本的核心逻辑;列举常见的模型量化方式,并解释QLoRA选择NF4与FP16组合而非其他方案的原因,阐述NF4的分布拟合逻辑。5. 针对采用multi-query attention优化后,decoder延迟仍居高不下的问题,分析潜在性能瓶颈;探讨vLLM自带的KV Cache是否会成为推理过程中的负担。6. 分别说明Embedding模型与Rerank模型处理文本语料的核心流程,并结合实际应用场景举例说明。7. 结合过往RAG项目经验,讲解从数据清洗到检索服务上线的完整链路搭建流程,重点说明chunk切分的具体策略。8. 分析当前RAG技术落地的最大瓶颈,并阐述你在项目中采取过哪些优化手段来提升检索召回率(Recall)。9. 针对XX领域大模型的训练工作,说明SFT(监督微调)数据集的构造方法与核心思路。10. 结合LoRA微调实操经历,说明rank值的选择依据;在合并adapter权重的过程中,是否遇到过梯度爆炸问题,以及对应的解决方法。11. 结合你的模型部署相关经验,说明模型参数量与硬件算力需求之间的对应关系(例如不同参数量级模型所需的算力配置标准);以部署一个稀疏率千分之三的235B参数量MOE架构模型为例,估算其所需的算力规模。12. 在搭建RAG知识库时,若需对文档进行动态更新,你采用的是全量嵌入还是增量处理方案?若为增量处理,如何规避新旧文档数据分布不一致导致的检索偏差问题。13. 针对机械臂动作态融合相关工作,说明数据融合的具体实现方案,以及对比实验的设计思路与评估指标。
查看12道真题和解析
点赞 评论 收藏
分享
评论
3
7
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务