一面:
1. 自我介绍,讲论文和实习。
2. Transformer自注意力机制、位置编码、梯度消失/爆炸的解决方案。
3. 微调方法对比(Full Fine-tuning vs. LoRA/Adapter/P-Tuning)。
4. 推理加速技术(量化、动态批处理、FlashAttention)。
5. 如何优化大模型在长文本生成中的显存占用?
6. RLHF中奖励模型(RM)的训练数据如何构建?
7. 为网易云音乐设计一个AI歌词生成系统,如何提升创意性和押韵效果?
8. 模型剪枝/量化(GPTQ、AWQ)、服务化框架(FastAPI+vLLM)。
9. 如何解决大模型API服务的响应延迟问题?
一面八股挺多的,问的知识点也非常多,主要考察对大模型的理解,整体来说难度不算大,复习熟记八股应该都比较好答。

二面:
1. 自我介绍,讲论文和实习。
2. LayerNorm和BatchNorm在大模型中的区别?为什么Transformer用LayerNorm?
3. 解释大模型训练中的“灾难性遗忘”现象及解决方法。
4. 如果微调后的模型过拟合,你会如何调整?
5. 如何评估一个对话系统的生成质量?
6. 如何用大模型提升网易新闻的推荐效率?
7. 设计一个游戏内AI陪玩系统,需考虑哪些模块?
8. 领域适配时,如何构建高质量的垂域训练集?
9. 你在项目中如何解决数据稀缺问题?
10. 模型上线后遇到了什么性能瓶颈?如何优化的?
建议:精读《Attention Is All You Need》、HuggingFace文档。如果没有大模型项目,可用Kaggle/开源项目复现(如LangChain应用)。
全部评论

相关推荐

📍面试公司:小米🕐面试时间:2026/03/26(二十分钟草草收场,都不想去看结果就知道挂了)💻面试岗位:大模型推理优化❓面试问题:一、自我介绍二、八股问题拷打,其实上来就是手撕1、直接在编辑器上手撕MGA,要求写出init、forward、注意力层   ——丢人现眼了,基本不会写2、追问,不会写的话讲一下整个过程,输入到输出怎么样的?         ——讲了讲transformer,注意力机制3、vllm和sglang的底层代码有看过吗?                                          ——没看过(其实看过,但我不敢说,怕叫我写)4、kv cache有哪些加载方式?                                                        ——在胡言乱语,啊这个,啊那个5、PD分离机制是干什么的?你怎么实现的?                                   ——唯一能回答的问题6、有没有用vllm部署过模型?吞吐量是多少?                                 ——脑子昏了,沉默(跑了demo,没测过)7、MTP(可能是MCP?没听清)是什么,介绍一下?                     ——我估计想问Medusa?反正我没回答,沉默。到这他问不下去了。。。三、反问两个人尴尬一笑,没什么要问的了。🙌面试感想:应该是史上最无悬念的秒挂,第一个手撕不会之后我已经晕头转向了,加上昨天熬夜到五点,到后面我都有点不好意思了,感觉在浪费他的时间,在这里跟他道个歉😀。十月到现在算上开发+infra可能面了二十多家吧,大部分都是秒挂,感觉车企infra这块的要求都特别高吧,问的特别细,就是最新的技术一定都要掌握,这一块技术迭代感觉特别特别快,光背八股面经给我感觉不太行。鼠鼠也累了,但自觉已经尽力了。也感谢这些至少还给机会面试的公司吧,有些简历直接投垃圾桶里了。(希望下一届的同学早早准备,不要像鼠鼠一样还在为春招奔波)。
查看8道真题和解析
点赞 评论 收藏
分享
评论
2
1
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务