字节大模型面经复盘:

1️⃣自我介绍:【⌚️10分钟】
点评:流水账,有些磕磕绊绊,自我介绍环节的项目介绍的很详细,非常冗余。
优化:写逐字稿,背诵,提升语言表达能力。
2️⃣经常问题的问题优化:【⌚️20分钟】
1:transform结构了解吗?
回答点评:回答的很简单,5分吧,说了transform的结构是encode-decode结构,分块,每个块里面有四个组建,MHA、FFN、LN、残差链接,介绍和理解不深刻。
提升指导:梳理回答逻辑结构,讲解MHA、FFN、LN、残差链接的添加逻辑和含义,其中MHA给出代码层面理解,从2分钟的回答变成6分钟的回答。
2:多头自注意力机制是啥?公式是啥?代码你会写吗?
回答点评:讲了公式,但是掌握的不够细致,pytorch代码框架不熟悉,attention_mask机制没有写出来。
提升指导:讲述代码的原理,如何使用代码回答问题,展示自己的理解深刻。
3:rag中的多路召回是什么?embeding为啥用智源的BGE-large/Base?
回答点评:使用了BM25和向量召回,但是没有讲出来两个的区别和联系
提升指导:先讲原理,再讲述下语义理解能力和泛化能力的区别,计算的效率,两个互为补充等。
3️⃣不会回答的问题指导:【⌚️40分钟】
1:  LN不太会回答,看网上的回答很多,但是不是理解层面。
2:我的向量召回是faiss做的,和这个相关的问题我如何准备?
3:经常会被问到rag用的啥框架,这个问题如何回答?还需要准备框架的知识吗?
4:面试官经常问我,rag的模型是啥?有做微调吗?如果不做微调怎么回答?
5:大模型还需要补充那些知识?
📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
全部评论
ai大模型的岗位需要刷力扣八股算法吗
点赞 回复 分享
发布于 2025-11-29 00:14 湖北
面试太细节了
点赞 回复 分享
发布于 2025-07-06 15:55 上海

相关推荐

攒人品中,祝大家都能拿到满意的Offer!1.项目拷打2生成式推荐本质上是在做隐空间到离散iD的映射,你如何证明你生成的 ID 序列保留了用户意图的最优压缩3.比如广告场景下不仅仅是预估 CTR。如果我们将生成式排序引入 GSP拍卖,大模型生成的候选列表概率分布,如何保证满足激励相容性4如果模型生成的排序导致广告主出现竞价上的博弈呢5.在H100集群上跑生成式重排,现在的瓶颈不在计算而在存储带宽。如果分阶段推理,我在Prefill阶段采用了FlashAttention-3,但在 Decoding 阶段因为 KV Cache 导致的Fragmented Memory太严重,怎么办6.推荐系统要求毫秒级响应对于1B规模的排序模型,如果我要做Speculative Decoding,你如何设计那个Draft Model?这个小模型是该学大模型的 Logits 分布,还是该学用户的Embedding聚类7.假设构建一个端到端生成式广告系统。现在面临一个场景:某个新入驻的土豪广告主投放了一批高质量视频,但由于模型对新 ID 的 Semantic Indexing 尚未完全对齐,导致第一波推荐给了错误的人群,产生了极高的 Negative Feedback,生成式模型的自回归特性会不断放大这种“第一印象”,导致该广告主瞬间被屏蔽你如何设计一套Online Counterfactual Correction这种,在不重新训练模型的前提下,通过修改 KV Cache里的隐藏状态来强行挽回这批广告的生命周期9.在短视频重排阶段使用了一个 10B 的生成式模型但是业务反馈说模型在学会了今天最火的某个梗以后,竟然忘记了如何处理用户对“长尾科普视频”的旧兴趣,发生了明显的 Catastrophic Forgetting,设计一种基于 Gradient Orthogonal Projection的优化器,确保模型在更新实时热点知识时,参数更新量在旧知识的Null Space内。10.都知道生成式模型有位置偏差从 Attention Entropy 的角度来看,为什么 $N$ 个候选 Item 在序列中的排列顺序会直接导致 Logits 的非线性漂移
查看9道真题和解析
点赞 评论 收藏
分享
评论
3
44
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务