11.17快手大模型算法日常一面

标准的KPI面试,面试官随便问了几个简历上很浅的问题就结束了
八股文:DPO、PPO、GRPO的优劣势
手撕:反转链表(ACM模式,自己写示例)
反问:部门具体业务.....(当他主动跟我说不是他招实习生,是隔壁部门招实习生,他临时被喊过来的时候,我就知道gg又是浪费时间的一天)
#秋招吐槽大会##发面经攒人品##快手##秋招,不懂就问##快手面试#
全部评论
点赞 回复 分享
发布于 12-10 21:20 北京

相关推荐

12-14 22:54
武汉大学 Java
点赞 评论 收藏
分享
1.你的 Agent 系统Prompt 是怎么设计和迭代的?有没有做过 Prompt 自动优化?当用户提出不完整的请求时,如何补全用户意图的?2.构建 Agent 的时候,遇到过哪些瓶颈?LangChain 的 memory 默认机制在多3.用户并发中怎么做隔离?你是如何保证线程安全的?4.微调 Llama2 你是怎么选择训练样本的?清洗逻辑是什么?你有没有观察到哪些训练样本质量问题对模型行为有很大影响?举例说明。5.DPO相比 SFT,有哪些优劣?它在 Agent 任务上效果提升明显吗?你怎么构造偏好对?构造逻辑是自动的还是人工?6.你说你服务部署在 vLLM 上,为何选择它?KV-cache 如何帮助推理加速?你自己做过哪些优化?7.假如需要支持 Streaming 输出,但当前服务延迟又超标,你会怎么折中设计?8.多轮对话上下文状态管理是如何做的?如何在高并发场景下保证一致性?9.你做的 Agent 使用了多少个外部工具,在调用链条上如何保障故障容错和超时机制?10.有没有做过工具调用失败后的feedback策略设计?11.训练过程中数据来自用户行为日志,你是如何从这些数据中抽取训练对话的?有没有做过归一化或事件抽象?12.有没有了解过带有时间窗口/偏移限制的对话系统?模型怎么“理解时间”?13.你觉得 Agent 哪些模块最容易在真实业务中出问题?你会如何监控和定位的?
查看13道真题和解析
点赞 评论 收藏
分享
1.  注意力机制:请简述 MHA、MQA 和 GQA 三种注意力机制的核心区别。2.  模型架构:Dense 模型与 MoE 模型有何本质区别?3.  路由机制:MoE 模型中,路由(Routing)机制具体是如何工作的?4.  LoRA 微调:请阐述 LoRA 的原理,以及其中 A、B 矩阵的初始化方式和秩(Rank)的设置考量。5.  强化学习:请对比 DPO、PPO 和 GRPO 的原理与区别,并写出 DPO 的 Loss 函数公式。6.  推理加速:vLLM 中使用了哪些关键技术(如 PagedAttention、KV Cache)来优化推理?7.  并行框架:你对 DeepSpeed 这一加速推理与训练框架有多少了解?8.  BM25 算法:请讲解 BM25 算法的计算原理。9.  负载均衡:MoE 模型中专家(Expert)的负载不均衡问题该如何解决?10.  损失函数:能否通过修改损失函数的方式来缓解 MoE 的负载均衡问题?11.  数据分布:SFT 微调数据与预训练数据分布差异较大时,该如何处理?12. Scaling Law:SFT 微调的数据集是越大越好吗?是否存在 Scaling Law 现象?13. 训练稳定性:强化学习(RL)为何存在训练不稳定的问题?既然不稳定为何业界仍广泛使用?14. 三数之和:LeetCode 15. 三数之和。📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
查看14道真题和解析
点赞 评论 收藏
分享
评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务