4 轮拿下字节Offer!LLM面试题合集

一面(mentor1):

自我介绍

实习项目1: 项目里RAG怎么做的,怎么设计的召回排序链路,embedding召回和粗排有哪些方案,怎么评估promptengineering后的效果,数据pipeline的形式,怎么用到Agent的了解 ReAct吗,了解强化学习和奖励函数吗?

实习项目2: 微调模型选型原因,为什么不考虑大参数模型,为什么用LORA,微调数据pipeline,数据集细节,数据整合策略,为什么混合训练,出现新数据加入后离线评估掉点怎么办,会vm吗?Llama架构,Qwen架构

代码: 编辑距离(ACM格式)

二面(mentor2):

自我介绍

实习项目1: 项目背景?LLM的输出是什么?RAG用的Embedding模型是哪个?会有误判的情况嘛?怎么解决?遇到的其他困难?如果项目结果仍然不被公司内部同事接受,该怎么让这个服务在全公司范围内开展和运作?

实习项目2: 微调数据怎么来的?有没有做数据增强?有没有考虑过针对这个业务做改进实现无标注自动获得数据?翻译错误识别的 AUC如何计算?有试过用 SOTA模型代替微调嘛?如果识别出结果,后续怎么解决?和我讨论了一下业务相关的可行方案(字节大佬拍脑袋一想的就是当时公司里真的在用的,太6了)

八股: LORA和全参SFT有啥区别?LORA是插入新一层参数还是在原本参数上进行调整?秩不一样,怎么把微调结果应用到原本的矩阵?口述注意力公式;Q、K、V分别是什么,怎么获得,有什么用;为什么除以根号dk;和我讨论为啥不是除以 dk?

代码: LC 141.环形链表,要求空间复杂度O(1),ACM模式要自己定义链表类

三面(部门leader):

自我介绍

实习项目1(拷打实现细节): 业务背景,项目谁主要负责的,准确率如何评估,pipeline细节,如何设计提示词模板,遇到的困难,用的什么模型,怎么解决模型幻觉,怎么解决tokenlength限制,模型输入输出是什么,如何针对反馈出现的问题做改进?

实习项目2(拷打实现细节): 部门业务背景微调的必要性,为什么不用 SOTA闭源模型:模型选型理由,模型输入输出是什么,如何做评估,怎么权衡Recall和Precision,为什么最终没有上线?

#大模型##考研可以缓解求职焦虑吗##你喜欢工作还是上学##考研失败就一定是坏事吗?##大学生该如何认清当下的就业环境?#
全部评论

相关推荐

刚刷到字节跳动官方发的消息,确实被这波阵仗吓了一跳。在大家还在纠结今年行情是不是又“寒冬”的时候,字节直接甩出了史上规模最大的转正实习计划——ByteIntern。咱们直接看几个最硬的数,别被花里胡哨的宣传词绕晕了。首先是“量大”。全球招7000多人是什么概念?这几乎是把很多中型互联网公司的总人数都给招进来了。最关键的是,这次的资源分配非常精准:研发岗给了4800多个Offer,占比直接超过六成。说白了,字节今年还是要死磕技术,尤其是产品和AI领域,这对于咱们写代码的同学来说,绝对是今年最厚的一块肥肉。其次是大家最关心的“转正率”。官方直接白纸黑字写了:整体转正率超过50%。这意味着只要你进去了,不划水、正常干,每两个人里就有一个能直接拿校招Offer。对于2027届(2026年9月到2027年8月毕业)的同学来说,这不仅是实习,这简直就是通往大厂的快捷通道。不过,我也得泼盆冷水。坑位多,不代表门槛低。字节的实习面试出了名的爱考算法和工程实操,尤其是今年重点倾斜AI方向,如果你简历里有和AI相关的项目,优势还是有的。而且,转正率50%也意味着剩下那50%的人是陪跑的,进去之后的考核压力肯定不小。一句话总结: 27届的兄弟们,别犹豫了。今年字节这是铁了心要抢提前批的人才,现在投递就是占坑。与其等到明年秋招去千军万马挤独木桥,不如现在进去先占个工位,把转正名额攥在手里。
喵_coding:别逗了 50%转正率 仔细想想 就是转正与不转正
字节7000实习来了,你...
点赞 评论 收藏
分享
评论
点赞
9
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务