字节大模型算法面经-面麻了已经

攒人品中,祝大家都能拿到满意的Offer!
1.项目拷打
2生成式推荐本质上是在做隐空间到离散iD的映射,你如何证明你生成的 ID 序列保留了用户意图的最优压缩
3.比如广告场景下不仅仅是预估 CTR。如果我们将生成式排序引入 GSP拍卖,大模型生成的候选列表概率分布,如何保证满足激励相容性
4如果模型生成的排序导致广告主出现竞价上的博弈呢
5.在H100集群上跑生成式重排,现在的瓶颈不在计算而在存储带宽。如果分阶段推理,我在Prefill阶段采用了FlashAttention-3,但在 Decoding 阶段因为 KV Cache 导致的Fragmented Memory太严重,怎么办
6.推荐系统要求毫秒级响应对于1B规模的排序模型,如果我要做Speculative Decoding,你如何设计那个Draft Model?这个小模型是该学大模型的 Logits 分布,还是该学用户的Embedding聚类
7.假设构建一个端到端生成式广告系统。现在面临一个场景:某个新入驻的土豪广告主投放了一批高质量视频,但由于模型对新 ID 的 Semantic Indexing 尚未完全对齐,导致第一波推荐给了错误的人群,产生了极高的 Negative Feedback,生成式模型的自回归特性会不断放大这种“第一印象”,导致该广告主瞬间被屏蔽你如何设计一套Online Counterfactual Correction这种,在不重新训练模型的前提下,通过修改 KV Cache里的隐藏状态来强行挽回这批广告的生命周期
9.在短视频重排阶段使用了一个 10B 的生成式模型但是业务反馈说模型在学会了今天最火的某个梗以后,竟然忘记了如何处理用户对“长尾科普视频”的旧兴趣,发生了明显的 Catastrophic Forgetting,设计一种基于 Gradient Orthogonal Projection的优化器,确保模型在更新实时热点知识时,参数更新量在旧知识的Null Space内。
10.都知道生成式模型有位置偏差从 Attention Entropy 的角度来看,为什么 $N$ 个候选 Item 在序列中的排列顺序会直接导致 Logits 的非线性漂移
全部评论
强烈推荐!这个笔记写得很清晰 http://github.com/AccumulateMore/CV
1 回复 分享
发布于 昨天 16:11 广东
这么难吗
点赞 回复 分享
发布于 昨天 14:05 新加坡

相关推荐

头像
03-25 22:34
天津大学 Java
1.你这后面怎么那么大一个校徽(我费劲抢到的学校面试间。。对这场面试我足够看重)2.拷打科研经历15min,最后的结论是我觉得你这个做的没意义(那我也承认啊,那我硕士科研不就为了能毕业吗。。能有什么意义)3.你没有实习经历,那给你一个情景,你设计一下吧,要实现发红包功能,你底层怎么写围绕这个场景,拷打了40min。。我设计一种,面试官觉得存在问题,让我改,翻来覆去六版,还是不满意,ok,fine,那我不就是没实习才要找实习。。4.手撕,没什么好说的,秒了。。最后纠结了一会输出,发现我写的是对的。5.为什么hashmap可以O1访问到数组。我人晕了,不然呢。。那能是什么。姑且答了数组是连续的内存空间,可以根据首内存+偏移量得到数据说实话,三年前面字节,面试官独一份的掐秒表问问题,以及最后手撕没按她思路写,说没时间了那就这样吧,然后给我挂了。导致我心中挺排斥字节的。从三年前到现在,面了正好是39次了,下次刚好第40次,只有字节给我的体验最差。我始终觉得面试是个双向选择的过程,我不否认我没有出众的技术实力,我也认可公司或者部门想要高技术经验丰富的人,那不合适就友好结束,为什么非要在面试的过程中不断表现出负面的感觉呢?这也不是我第一次挂面试了,但上次挂面试我没有觉得什么,我认为我和面试官友好沟通了之后发现可能确实不太合适。只能说读研也改变了我,放以前我可能很生气,现在我只是觉得真没必要,都是打工人,无非生的早晚而已。愿每个辛苦找实习,投简历,做测评,做笔试,为面试焦虑的同学们都能被正常对待。
查看2道真题和解析
点赞 评论 收藏
分享
牛客57020934...:双非本投Seed吗,这种都是在9本9硕上还要挑一堆论文竞赛的岗
点赞 评论 收藏
分享
评论
点赞
1
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务