大模型算法实习面经-字节

被横向挂了,希望发出来对大家有帮助!
1.项目提问
2.聚类怎么实现?
3.层次聚类和DBSCAN有什么区别?你用了什么停止准则?
4.解释TD3
5.为什么不用PPO而用TD3?
6.TD3为啥输出的是确定性策略,里面的actor不也是概率的吗?
7.大模型里的RL了解过吗?
8.相对和绝对位置编码有哪些?相对位置编码的优势?
9.能外推的相对位置编码有什么?
10.Normalization有哪些?
11.NLP任务里为什么用LN不用BN?
12.BN适用于哪里?为什么?
Python基础:
1.运算符是干嘛的
2.kwargs和*args什么区别
3.Print(*args)输出什么
4.进程,线程,协程
5.Async
6.@是什么?pytorch里具体怎么实现的?
7.装饰器的原理
手撕:最长公共子数组,用O(n)方法实现
全部评论

相关推荐

攒人品中,祝大家都能拿到满意的Offer!1.项目拷打2生成式推荐本质上是在做隐空间到离散iD的映射,你如何证明你生成的 ID 序列保留了用户意图的最优压缩3.比如广告场景下不仅仅是预估 CTR。如果我们将生成式排序引入 GSP拍卖,大模型生成的候选列表概率分布,如何保证满足激励相容性4如果模型生成的排序导致广告主出现竞价上的博弈呢5.在H100集群上跑生成式重排,现在的瓶颈不在计算而在存储带宽。如果分阶段推理,我在Prefill阶段采用了FlashAttention-3,但在 Decoding 阶段因为 KV Cache 导致的Fragmented Memory太严重,怎么办6.推荐系统要求毫秒级响应对于1B规模的排序模型,如果我要做Speculative Decoding,你如何设计那个Draft Model?这个小模型是该学大模型的 Logits 分布,还是该学用户的Embedding聚类7.假设构建一个端到端生成式广告系统。现在面临一个场景:某个新入驻的土豪广告主投放了一批高质量视频,但由于模型对新 ID 的 Semantic Indexing 尚未完全对齐,导致第一波推荐给了错误的人群,产生了极高的 Negative Feedback,生成式模型的自回归特性会不断放大这种“第一印象”,导致该广告主瞬间被屏蔽你如何设计一套Online Counterfactual Correction这种,在不重新训练模型的前提下,通过修改 KV Cache里的隐藏状态来强行挽回这批广告的生命周期9.在短视频重排阶段使用了一个 10B 的生成式模型但是业务反馈说模型在学会了今天最火的某个梗以后,竟然忘记了如何处理用户对“长尾科普视频”的旧兴趣,发生了明显的 Catastrophic Forgetting,设计一种基于 Gradient Orthogonal Projection的优化器,确保模型在更新实时热点知识时,参数更新量在旧知识的Null Space内。10.都知道生成式模型有位置偏差从 Attention Entropy 的角度来看,为什么 $N$ 个候选 Item 在序列中的排列顺序会直接导致 Logits 的非线性漂移
查看9道真题和解析
点赞 评论 收藏
分享
04-12 11:51
吉林大学 Java
1. 面试官介绍自己的团队,base位置,是否能够接受。2. 自我介绍3. 了解了一下我的现状,能够实习多久。4. 聊项目5. 你测试了你的系统吗?AI服务耗时怎么样?6. 你有调研过Java语言实现AI服务的工具吗?为什么项目中要用Python开发呢?7. 你的消息队列的主要作用是什么?8. 除了消息队列,你有没有想过其他通信方案?(RPC,HTTP等)9. 为什么不使用http同步调用的方案呢?10. 这个项目中,检索业务和生成业务的性能瓶颈你觉得在哪?有没有想过优化方案?11. 聊Java八股12. 你使用的JDK版本是什么?你了解过哪些新特性?13. 你用过lambda表达式吗?你知道lambda表达式底层的实现原理吗?14. 你了解过Java最新的绿色线程吗?15. 说说Java的虚拟线程和Go语言的协程、Python的协程有什么区别吗?(本人不了解Go和Java的虚拟线程,就只讲了Python的协程)16. 用普通的线程可以做到你项目中协程的工作吗?两种实现方案有什么区别?17. 你的项目用的是什么垃圾回收器?(回答是G1垃圾回收器)你了解G1垃圾回收器的底层原理吗?18. G1标记完需要回收的region后,具体如何判断是否该对一个region进行清理呢?19. 聊AI八股20. 你说你用了langchain和langgraph,介绍一下他们和二者的关系21. 你觉得langgraph真正的强大之处在哪?他有哪些关键的机制?22. 你知道langchain和langgraph框架在Java端的适配版本吗?有调研过吗?23. 你了解过向量数据库milvus的索引吗?24. 能简单讲讲向量的稠密索引是如何工作的吗?25. 你了解微调吗?Lora微调的原理是什么?与全量微调有何区别?26. 你了解vLLM吗?你知道他的原理吗?27. 你提到你使用了一些提示词工程,比如few shot和CoT,介绍一下他们以及具体的应用场景。28. 你的项目中如何应用提示词工程的?你怎么管理不同版本的提示词呢?29. 你了解哪些降低大模型幻觉的手段?30. 除了RAG,还有别的方法吗?31. 你的项目用了几个Agent?你的多个Agent之间如何通信?32. 你有没有考虑过Agent之间无限循环调用导致token消耗爆炸的情况?有没有解决方案或者思路?33. 你的项目中是如何计算和监控token消耗量的?34. 你了解哪些Agent通信方法?算法题:高精度乘法反问面试体验比较好。虽然难度大但是也能了解到很多新知识,开阔视野。第二天进二面。
点赞 评论 收藏
分享
评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务