大模型算法实习面经-字节跳动

给我面没招了。。。
1. 项目拷打
2. 详细阐述Transformer的底层原理,并说明其能够替代RNN的核心优势;结合Transformer架构的成熟度,分析Self-Attention机制在多模态对齐任务中是否存在瓶颈,以及在实际业务场景中,是否出现过注意力权重完全偏移的情况。
3. 讲解LoRA的技术原理,说明LoRA是否仅能嵌入Linear层;分析LoRA无法在LayerNorm层之后插入的原因,以及该操作会对模型训练稳定性产生哪些具体影响。
4. 结合实操经验,说明QLoRA降低训练资源成本的核心逻辑;列举常见的模型量化方式,并解释QLoRA选择NF4与FP16组合而非其他方案的原因,阐述NF4的分布拟合逻辑。
5. 针对采用multi-query attention优化后,decoder延迟仍居高不下的问题,分析潜在性能瓶颈;探讨vLLM自带的KV Cache是否会成为推理过程中的负担。
6. 分别说明Embedding模型与Rerank模型处理文本语料的核心流程,并结合实际应用场景举例说明。
7. 结合过往RAG项目经验,讲解从数据清洗到检索服务上线的完整链路搭建流程,重点说明chunk切分的具体策略。
8. 分析当前RAG技术落地的最大瓶颈,并阐述你在项目中采取过哪些优化手段来提升检索召回率(Recall)。
9. 针对XX领域大模型的训练工作,说明SFT(监督微调)数据集的构造方法与核心思路。
10. 结合LoRA微调实操经历,说明rank值的选择依据;在合并adapter权重的过程中,是否遇到过梯度爆炸问题,以及对应的解决方法。
11. 结合你的模型部署相关经验,说明模型参数量与硬件算力需求之间的对应关系(例如不同参数量级模型所需的算力配置标准);以部署一个稀疏率千分之三的235B参数量MOE架构模型为例,估算其所需的算力规模。
12. 在搭建RAG知识库时,若需对文档进行动态更新,你采用的是全量嵌入还是增量处理方案?若为增量处理,如何规避新旧文档数据分布不一致导致的检索偏差问题。
全部评论
问题怎么这么细
点赞 回复 分享
发布于 04-10 20:30 北京

相关推荐

📍面试公司:小米🕐面试时间:2026/03/26(二十分钟草草收场,都不想去看结果就知道挂了)💻面试岗位:大模型推理优化❓面试问题:一、自我介绍二、八股问题拷打,其实上来就是手撕1、直接在编辑器上手撕MGA,要求写出init、forward、注意力层   ——丢人现眼了,基本不会写2、追问,不会写的话讲一下整个过程,输入到输出怎么样的?         ——讲了讲transformer,注意力机制3、vllm和sglang的底层代码有看过吗?                                          ——没看过(其实看过,但我不敢说,怕叫我写)4、kv cache有哪些加载方式?                                                        ——在胡言乱语,啊这个,啊那个5、PD分离机制是干什么的?你怎么实现的?                                   ——唯一能回答的问题6、有没有用vllm部署过模型?吞吐量是多少?                                 ——脑子昏了,沉默(跑了demo,没测过)7、MTP(可能是MCP?没听清)是什么,介绍一下?                     ——我估计想问Medusa?反正我没回答,沉默。到这他问不下去了。。。三、反问两个人尴尬一笑,没什么要问的了。🙌面试感想:应该是史上最无悬念的秒挂,第一个手撕不会之后我已经晕头转向了,加上昨天熬夜到五点,到后面我都有点不好意思了,感觉在浪费他的时间,在这里跟他道个歉😀。十月到现在算上开发+infra可能面了二十多家吧,大部分都是秒挂,感觉车企infra这块的要求都特别高吧,问的特别细,就是最新的技术一定都要掌握,这一块技术迭代感觉特别特别快,光背八股面经给我感觉不太行。鼠鼠也累了,但自觉已经尽力了。也感谢这些至少还给机会面试的公司吧,有些简历直接投垃圾桶里了。(希望下一届的同学早早准备,不要像鼠鼠一样还在为春招奔波)。
查看8道真题和解析
点赞 评论 收藏
分享
评论
1
4
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务