LLM算法实习 百度二面面经

继续来分享下之前的面经~强度好大,俺不中咧。。。。
1.实习中多智能体系统包含几个智能体?它们之间如何交互?

2.意图识别模型需要识别多少个意图?

3.750B 模型用于什么场景?

4.实习中 Qwen3VL 模型是多少 B 的?用于什么场景?

5.在实习中,你主要的贡献是什么?

6.检索环节做了哪些优化?

7.答案生成环节做了哪些优化?

8.是否做了 SFT 或强化学习相关工作?在哪个环节做的?

9.SFT 过程中是否对类别标签做了清洗或修正?

10.强化学习的样本量是多少?

11.基础模型经常分类分不准的案例有哪些?

12.在校项目中,为什么用对话数据来增强数据集?

13.在校项目任务的输出可以简单描述并举例吗?

14.单智能体能否完成在校项目相关工作?为什么要使用多智能体?

15.LangGraph 相对其他开源智能体编排工具的优点是什么?

16.在现有场景中是否需要用到 LangGraph 的状态管理功能?

17.如何理解 Long-term Memory 的实现方式?

18.若将电商场景中用户的购买、点击、兴趣等信息设计为长期记忆,有什么想法?

19.Context Window 能否储存大量电商交互信息?如何解决存储问题?

20.推理时若将大量 Memory 以 Token 形式给到大模型,Token 长度过长该如何处理?

21.强化学习有哪些常用技巧?

22.若通过 SFT 进一步提升模型准确率,常用的手段有哪些?

23.SFT 的理想数据量是多少?如何确定?

24.SFT 数据分布一般怎么取?为什么选择该分布而非其他分布?
全部评论
考虑多多吗,最近实习hc多多,转正率很高
点赞 回复 分享
发布于 03-13 12:06 上海

相关推荐

📍面试公司:小米🕐面试时间:2026/03/26(二十分钟草草收场,都不想去看结果就知道挂了)💻面试岗位:大模型推理优化❓面试问题:一、自我介绍二、八股问题拷打,其实上来就是手撕1、直接在编辑器上手撕MGA,要求写出init、forward、注意力层   ——丢人现眼了,基本不会写2、追问,不会写的话讲一下整个过程,输入到输出怎么样的?         ——讲了讲transformer,注意力机制3、vllm和sglang的底层代码有看过吗?                                          ——没看过(其实看过,但我不敢说,怕叫我写)4、kv cache有哪些加载方式?                                                        ——在胡言乱语,啊这个,啊那个5、PD分离机制是干什么的?你怎么实现的?                                   ——唯一能回答的问题6、有没有用vllm部署过模型?吞吐量是多少?                                 ——脑子昏了,沉默(跑了demo,没测过)7、MTP(可能是MCP?没听清)是什么,介绍一下?                     ——我估计想问Medusa?反正我没回答,沉默。到这他问不下去了。。。三、反问两个人尴尬一笑,没什么要问的了。🙌面试感想:应该是史上最无悬念的秒挂,第一个手撕不会之后我已经晕头转向了,加上昨天熬夜到五点,到后面我都有点不好意思了,感觉在浪费他的时间,在这里跟他道个歉😀。十月到现在算上开发+infra可能面了二十多家吧,大部分都是秒挂,感觉车企infra这块的要求都特别高吧,问的特别细,就是最新的技术一定都要掌握,这一块技术迭代感觉特别特别快,光背八股面经给我感觉不太行。鼠鼠也累了,但自觉已经尽力了。也感谢这些至少还给机会面试的公司吧,有些简历直接投垃圾桶里了。(希望下一届的同学早早准备,不要像鼠鼠一样还在为春招奔波)。
查看8道真题和解析
点赞 评论 收藏
分享
评论
点赞
1
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务