快手 暑实 广告算法 已oc

主要是问项目和论文,因为项目用的Autoformer与Transformer类似,一二面都被拷打self attention以及训练细节。穿插着考察一些常规八股(交叉熵,过拟合问题,normlization等),以及项目里使用的一些成熟的机器学习算法的原理(被拷打LDA的原理,麻了),手撕一些力扣题。

4.18 一面
4.23 二面
4.25 hr面
4.26 oc

整个流程挺快的,给快手HR和面试官点个赞😬
全部评论
老哥哪个部门 我也是广告
点赞 回复 分享
发布于 2024-05-17 21:08 江苏
你好!请问有开源项目推荐吗,没有论文希望能开源项目做一下,打扰了
点赞 回复 分享
发布于 2024-04-29 15:42 湖北
佬,请问一下,学历是双九吗?
点赞 回复 分享
发布于 2024-04-27 17:05 福建
请问hr面主要面什么
点赞 回复 分享
发布于 2024-04-27 17:03 福建
请问题都写出来了吗
点赞 回复 分享
发布于 2024-04-27 15:52 北京

相关推荐

攒人品中,祝大家都能拿到满意的Offer!1*项目拷打2* 实习拷打3* KL 散度的数学意义是什么?在模型对齐(如 PPO/DPO)中起什么作用?4* MoE架构的具体实现原理是什么?路由(Router)是如何工作的?5* 面对模型在生成过程中出现循环、重复回答的问题,有哪些解决办法?6* BM25 算法的数学原理是什么?它相比于简单的 TF-IDF 有哪些改进?7* Agent 系统中的LangGraph是如何搭建的?其 Memory 组件的工作机制是怎样的?8* 如果单次生成的任务量远大于模型的 Max Tokens 限制,如何实现断点继续生成?9* Transformer 中 Attention 的本质是什么?请从数学角度解释。10* 为什么在计算 Attention 时需要进行Scaling11* Self-Attention 和 Cross-Attention 在作用和输入来源上有什么区别?12* 面对极长序列Attention 的 O(L^2) 复杂度问题目前有哪些主流解决方案?13* 在 Agent 多轮对话任务中,Attention 机制的局限性体现在哪些方面?14* 为什么模型在长上下文对话中容易出现“信息遗忘”?有哪些缓解机制?15* 介绍 SFT的流程,以及如何构建高质量、多样化的数据集?16* 在什么业务场景下,必须引入 RLHF 或 DPO 这种偏好对齐技术?17* MinerU 在解析复杂的工业文档(如图文混排)时,具体的处理逻辑是怎样的?18* 在多模态检索中,文本和图片是如何映射到同一个统一向量空间的?19* Ragas 评测框架中的 Faithfulness 和 Answer Relevance 指标的具体计算逻辑是什么?
查看17道真题和解析
点赞 评论 收藏
分享
评论
3
11
分享

创作者周榜

更多
正在热议
更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务