碳水化合物忠实信徒 level
获赞
25
粉丝
4
关注
0
看过 TA
164
门头沟学院
2026
人工智能
IP属地:上海
暂未填写个人简介
私信
关注
去年秋招我投了几十家,基本都是一面游,连二面都很少见到。今年春招开始我差点不想投了,一个双非本科,没大厂实习,感觉自己是不是真的不适合这行。但3月19日我还是咬牙投了字节的AI Agent岗位,没想到当天就收到了电话,约我3月25日一面。从一面开始,几乎每轮都是当天或隔天就出结果并约好下一轮,4月2日OC,4月14日正式拿到offer。整个流程效率超高,体验也很好。值得一提的是,OC之后我对部门具体做什么还不太清楚,HR特意帮我约了未来的Leader和Mentor(也就是一二面的面试官)开了个非正式会议,给我详细介绍了部门情况并解答了我所有的疑问。面经干货(具体题目记不太清了):1. 最好有自己亲手做的AI Agent项目。面试官直接让我投屏演示,有一个能跑起来的网页前端是加分项。同时建议写一份非常详细的README,把系统结构和设计思路讲清楚,面试官会抠很多细节。就算用AI辅助写代码,也一定要搞懂每个设计决策背后的原因。2. 对目标部门的业务要有一定了解。会有比较开放的问题,比如“如果要做某个功能,你会怎么设计Agent流程?”提前做足功课很重要。3. 简历上的项目要真正吃透。我之前做过一个AI小游戏,被反复拷问各种细节,幸好之前找科研实习时做过一个项目PPT,临时派上了用场。4. Agent和机器学习相关基础知识要熟悉。终于上岸,本该开心,却又有点心情复杂——怕以后加班太多,自己技术跟不上被淘汰,还得继续卷啊。说实话,我最大的变化是开始泡【春招专题】,那里每天都能看到同届的人投了啥、面了啥、面经更新了啥,节奏感一下就出来了。推荐大家也去逛逛 https://www.nowcoder.com/link/chunzhaoji2610
查看4道真题和解析
0 点赞 评论 收藏
分享
攒人品中,祝大家都能拿到满意的Offer!1*项目拷打2* 实习拷打3* KL 散度的数学意义是什么?在模型对齐(如 PPO/DPO)中起什么作用?4* MoE架构的具体实现原理是什么?路由(Router)是如何工作的?5* 面对模型在生成过程中出现循环、重复回答的问题,有哪些解决办法?6* BM25 算法的数学原理是什么?它相比于简单的 TF-IDF 有哪些改进?7* Agent 系统中的LangGraph是如何搭建的?其 Memory 组件的工作机制是怎样的?8* 如果单次生成的任务量远大于模型的 Max Tokens 限制,如何实现断点继续生成?9* Transformer 中 Attention 的本质是什么?请从数学角度解释。10* 为什么在计算 Attention 时需要进行Scaling11* Self-Attention 和 Cross-Attention 在作用和输入来源上有什么区别?12* 面对极长序列Attention 的 O(L^2) 复杂度问题目前有哪些主流解决方案?13* 在 Agent 多轮对话任务中,Attention 机制的局限性体现在哪些方面?14* 为什么模型在长上下文对话中容易出现“信息遗忘”?有哪些缓解机制?15* 介绍 SFT的流程,以及如何构建高质量、多样化的数据集?16* 在什么业务场景下,必须引入 RLHF 或 DPO 这种偏好对齐技术?17* MinerU 在解析复杂的工业文档(如图文混排)时,具体的处理逻辑是怎样的?18* 在多模态检索中,文本和图片是如何映射到同一个统一向量空间的?19* Ragas 评测框架中的 Faithfulness 和 Answer Relevance 指标的具体计算逻辑是什么?
查看17道真题和解析
0 点赞 评论 收藏
分享
给我面没招了,发点面经攒攒人品~1*当大模型产生错误回答或幻觉时,在工程和算法层面有哪些规避手段?2* 描述 Transformer Decoder 的完整解码流程。3* KL 散度的数学意义是什么?在模型对齐(如 PPO/DPO)中起什么作用?4* MoE架构的具体实现原理是什么?路由(Router)是如何工作的?5* 面对模型在生成过程中出现循环、重复回答的问题,有哪些解决办法?6* BM25 算法的数学原理是什么?它相比于简单的 TF-IDF 有哪些改进?7* Agent 系统中的LangGraph是如何搭建的?其 Memory 组件的工作机制是怎样的?8* 如果单次生成的任务量远大于模型的 Max Tokens 限制,如何实现断点继续生成?9* Transformer 中 Attention 的本质是什么?请从数学角度解释。10* 为什么在计算 Attention 时需要进行Scaling11* Self-Attention 和 Cross-Attention 在作用和输入来源上有什么区别?12* 面对极长序列Attention 的 O(L^2) 复杂度问题目前有哪些主流解决方案?13* 在 Agent 多轮对话任务中,Attention 机制的局限性体现在哪些方面?14* 为什么模型在长上下文对话中容易出现“信息遗忘”?有哪些缓解机制?15* 介绍 SFT的流程,以及如何构建高质量、多样化的数据集?16* 在什么业务场景下,必须引入 RLHF 或 DPO 这种偏好对齐技术?17* MinerU 在解析复杂的工业文档(如图文混排)时,具体的处理逻辑是怎样的?18* 在多模态检索中,文本和图片是如何映射到同一个统一向量空间的?19* Ragas 评测框架中的 Faithfulness 和 Answer Relevance 指标的具体计算逻辑是什么?20* 相比于 LangChain,LangGraph 在处理循环任务和状态管理上有哪些优势?21* LangGraph 的状态快照机制是如何实现任务回溯和持久化的?
0 点赞 评论 收藏
分享

创作者周榜

更多
关注他的用户也关注了:
牛客网
牛客网在线编程
牛客网题解
牛客企业服务