26秋招百度大模型算法面经

一面
1、自我介绍
2、详细聊了在百度半年的实习干了什么,为什么选择产品部去实习
3、详细聊了在百度产出的这一篇A会,自己的贡献是怎么样的?
4、详细聊了自己的科研方向:大模型推理的框架,包括底层的架构,硬件的架构(感觉面试官真什么都能问的出)
5、八股没怎么问,问的都是论文中的细节,为什么选择该模型,为什么不用剪枝量化去优化推理你的方法比这些方法好在什么地方,文章的idea是如何产生和实现的,包括代码的编写是基于别人的base改的?还是全自己写的?为什么没有考虑实用场景等等 总体来说是问的简历,还是比较好回答
6、手撕tokenizer(可能是因为我在回答问题的时候说 代码都全自己写的把 直接让手撕了tokenize
二面
1、自我介绍
2、问为什么没在部门转正?为什么不投自己的实习部门?
3、开始聊在百度产出的这篇文章,她说她看过这篇文章,我谢谢您,开始在线解答面试官的疑惑全程一个审稿人状态开始提问;为什么你们只用了小模型,不用大模型,是你们的实验数据有问题?包括后期问能不能落地?
4、代码,接雨水
5、反问
全部评论

相关推荐

继续来分享下之前的面经~强度好大,俺不中咧。。。。1.实习中多智能体系统包含几个智能体?它们之间如何交互?2.意图识别模型需要识别多少个意图?3.750B 模型用于什么场景?4.实习中 Qwen3VL 模型是多少 B 的?用于什么场景?5.在实习中,你主要的贡献是什么?6.检索环节做了哪些优化?7.答案生成环节做了哪些优化?8.是否做了 SFT 或强化学习相关工作?在哪个环节做的?9.SFT 过程中是否对类别标签做了清洗或修正?10.强化学习的样本量是多少?11.基础模型经常分类分不准的案例有哪些?12.在校项目中,为什么用对话数据来增强数据集?13.在校项目任务的输出可以简单描述并举例吗?14.单智能体能否完成在校项目相关工作?为什么要使用多智能体?15.LangGraph 相对其他开源智能体编排工具的优点是什么?16.在现有场景中是否需要用到 LangGraph 的状态管理功能?17.如何理解 Long-term Memory 的实现方式?18.若将电商场景中用户的购买、点击、兴趣等信息设计为长期记忆,有什么想法?19.Context Window 能否储存大量电商交互信息?如何解决存储问题?20.推理时若将大量 Memory 以 Token 形式给到大模型,Token 长度过长该如何处理?21.强化学习有哪些常用技巧?22.若通过 SFT 进一步提升模型准确率,常用的手段有哪些?23.SFT 的理想数据量是多少?如何确定?24.SFT 数据分布一般怎么取?为什么选择该分布而非其他分布?
点赞 评论 收藏
分享
评论
2
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务