字节大模型算法面经-面麻了已经

攒人品中,祝大家都能拿到满意的Offer!
1.项目拷打
2生成式推荐本质上是在做隐空间到离散iD的映射,你如何证明你生成的 ID 序列保留了用户意图的最优压缩
3.比如广告场景下不仅仅是预估 CTR。如果我们将生成式排序引入 GSP拍卖,大模型生成的候选列表概率分布,如何保证满足激励相容性
4如果模型生成的排序导致广告主出现竞价上的博弈呢
5.在H100集群上跑生成式重排,现在的瓶颈不在计算而在存储带宽。如果分阶段推理,我在Prefill阶段采用了FlashAttention-3,但在 Decoding 阶段因为 KV Cache 导致的Fragmented Memory太严重,怎么办
6.推荐系统要求毫秒级响应对于1B规模的排序模型,如果我要做Speculative Decoding,你如何设计那个Draft Model?这个小模型是该学大模型的 Logits 分布,还是该学用户的Embedding聚类
7.假设构建一个端到端生成式广告系统。现在面临一个场景:某个新入驻的土豪广告主投放了一批高质量视频,但由于模型对新 ID 的 Semantic Indexing 尚未完全对齐,导致第一波推荐给了错误的人群,产生了极高的 Negative Feedback,生成式模型的自回归特性会不断放大这种“第一印象”,导致该广告主瞬间被屏蔽你如何设计一套Online Counterfactual Correction这种,在不重新训练模型的前提下,通过修改 KV Cache里的隐藏状态来强行挽回这批广告的生命周期
9.在短视频重排阶段使用了一个 10B 的生成式模型但是业务反馈说模型在学会了今天最火的某个梗以后,竟然忘记了如何处理用户对“长尾科普视频”的旧兴趣,发生了明显的 Catastrophic Forgetting,设计一种基于 Gradient Orthogonal Projection的优化器,确保模型在更新实时热点知识时,参数更新量在旧知识的Null Space内。
10.都知道生成式模型有位置偏差从 Attention Entropy 的角度来看,为什么 $N$ 个候选 Item 在序列中的排列顺序会直接导致 Logits 的非线性漂移
全部评论
强烈推荐!这个笔记写得很清晰 http://github.com/AccumulateMore/CV
1 回复 分享
发布于 昨天 16:11 广东
这么难吗
点赞 回复 分享
发布于 昨天 14:05 新加坡

相关推荐

zzzilik:但凡有一段 ai 相关经历实习,基本都进了,除了阿里云感觉卡硕
校招笔试
点赞 评论 收藏
分享
今天 02:23
门头沟学院 Java
鼠鼠bg:9本无实习,项目上只有烂大街的黑马点评和小林的agent,算法只会hot100,常规八股比较熟练但是缺乏深度,属于典型的大众脸半个月前满怀信心开始投递暑期实习1.处女面是腾讯,面试官很好,即使是烂大街的点评也会探讨项目漏洞和技术方案,可惜鼠鼠准备不充分,没把握住机会2.第二次面携程,体验很好,面试官问的问题也比较常规,也是顺利进入二面,第一次面试通过给了鼠鼠很大的鼓舞3.二战腾讯,遇到了懂ai的面试官,问到transformer底层架构(当时还不会),还有agent的很多新名词,鼠鼠答上来大半最后还是遗憾挂掉,但是也从中学到了很多东西,回去恶补4.一战字节,字节的面试难度鼠鼠早有耳闻,面试前看了很多同部门的面经结合自己的简历做了很多模拟,结果面试官对鼠鼠简历上的东西毫无兴趣,只问了https握手经过几个rdt还有cas在操作系统层面的具体实现(闻所未闻的八股),两个问题过后给出两道非hot100手撕,鼠鼠大概被字节拉黑了吧。5.携程二面,面试官很好,会引导鼠鼠思考推理,问了场景设计,还有一些八股的深挖,比如hashmap负载因子0.75是怎么算出来的,在jdk1.7之前为什么使用链表仍能保持一个较快的查询速度,鼠鼠确实绞尽脑汁想不出来总结一下,面试被问到什么大概取决于面试官的心情吧,特别是目前ai时代,每场面试都会被意想不到的角度拷打,鼠鼠也不是很懂该往哪个方向努力了,只能面到不会的再补吧。后面可能沉下心来,日常和暑期同时投一投吧,希望最终能有一个offer,也渴望得到各位uu的宝贵建议
查看5道真题和解析
点赞 评论 收藏
分享
评论
1
1
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务