LLM算法实习 百度二面面经

继续来分享下之前的面经~强度好大,俺不中咧。。。。
1.实习中多智能体系统包含几个智能体?它们之间如何交互?

2.意图识别模型需要识别多少个意图?

3.750B 模型用于什么场景?

4.实习中 Qwen3VL 模型是多少 B 的?用于什么场景?

5.在实习中,你主要的贡献是什么?

6.检索环节做了哪些优化?

7.答案生成环节做了哪些优化?

8.是否做了 SFT 或强化学习相关工作?在哪个环节做的?

9.SFT 过程中是否对类别标签做了清洗或修正?

10.强化学习的样本量是多少?

11.基础模型经常分类分不准的案例有哪些?

12.在校项目中,为什么用对话数据来增强数据集?

13.在校项目任务的输出可以简单描述并举例吗?

14.单智能体能否完成在校项目相关工作?为什么要使用多智能体?

15.LangGraph 相对其他开源智能体编排工具的优点是什么?

16.在现有场景中是否需要用到 LangGraph 的状态管理功能?

17.如何理解 Long-term Memory 的实现方式?

18.若将电商场景中用户的购买、点击、兴趣等信息设计为长期记忆,有什么想法?

19.Context Window 能否储存大量电商交互信息?如何解决存储问题?

20.推理时若将大量 Memory 以 Token 形式给到大模型,Token 长度过长该如何处理?

21.强化学习有哪些常用技巧?

22.若通过 SFT 进一步提升模型准确率,常用的手段有哪些?

23.SFT 的理想数据量是多少?如何确定?

24.SFT 数据分布一般怎么取?为什么选择该分布而非其他分布?
全部评论
考虑多多吗,最近实习hc多多,转正率很高
点赞 回复 分享
发布于 今天 12:06 上海

相关推荐

刚刷到字节跳动官方发的消息,确实被这波阵仗吓了一跳。在大家还在纠结今年行情是不是又“寒冬”的时候,字节直接甩出了史上规模最大的转正实习计划——ByteIntern。咱们直接看几个最硬的数,别被花里胡哨的宣传词绕晕了。首先是“量大”。全球招7000多人是什么概念?这几乎是把很多中型互联网公司的总人数都给招进来了。最关键的是,这次的资源分配非常精准:研发岗给了4800多个Offer,占比直接超过六成。说白了,字节今年还是要死磕技术,尤其是产品和AI领域,这对于咱们写代码的同学来说,绝对是今年最厚的一块肥肉。其次是大家最关心的“转正率”。官方直接白纸黑字写了:整体转正率超过50%。这意味着只要你进去了,不划水、正常干,每两个人里就有一个能直接拿校招Offer。对于2027届(2026年9月到2027年8月毕业)的同学来说,这不仅是实习,这简直就是通往大厂的快捷通道。不过,我也得泼盆冷水。坑位多,不代表门槛低。字节的实习面试出了名的爱考算法和工程实操,尤其是今年重点倾斜AI方向,如果你简历里有和AI相关的项目,优势还是有的。而且,转正率50%也意味着剩下那50%的人是陪跑的,进去之后的考核压力肯定不小。一句话总结: 27届的兄弟们,别犹豫了。今年字节这是铁了心要抢提前批的人才,现在投递就是占坑。与其等到明年秋招去千军万马挤独木桥,不如现在进去先占个工位,把转正名额攥在手里。
喵_coding:别逗了 50%转正率 仔细想想 就是转正与不转正
字节7000实习来了,你...
点赞 评论 收藏
分享
评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务