淘天大模型算法一面-秋招面经

1. 实习介绍
2. 挑一个你最熟悉的大模型项目,讲讲它的目标,你主要负责什么,以及你觉得最有意思的技术点。
3. 在Transformer的Decoder里,我们为什么需要用Mask把未来的信息“遮住”?从代码实现上讲,这个Mask具体是怎么作用在Self-Attention分数上的?
4. 关于LayerNorm放在残差连接的“前面”还是“后面”(Pre-LN vs Post-LN),社区里有很多讨论。这两种设计选择,主要会影响训练过程的哪些方面?你更倾向于哪一种,为什么?
5. 我们要在线上部署一个大模型提供服务,推理速度和吞吐量是个大问题。像vLLM这样的工具,它主要是通过什么核心思想(比如PagedAttention)来解决KV Cache的内存问题,从而提升推理效率的?
6. 我们有一个基础模型,但它不太会“听人话”。如果想把它训练成一个能很好遵循指令的聊天助手,通常有几步?能简单说说SFT(监督微调)和基于人类反馈的对齐(比如PPO/DPO)分别是在解决什么问题吗?
7. 假设我们有一个效果很好的70B大模型,但因为太大太慢,没法直接上线。现在需要你把它“变小变快”。你会考虑用哪些方法(比如剪枝、量化)?各自有什么优缺点?
8. 相比于让大模型直接回答问题,现在很流行的RAG(检索增强生成)方案,它最大的好处是什么?主要解决了什么痛点?
9. 我们的RAG系统上线后,发现有时候还是会“胡说八道”,或者答非所问。如果让你去排查,你会从哪些方面入手?(比如是检索模块没找对,还是生成模块没理解好?)
10. 核心代码模式算法题:二叉树的中序遍历
11. 反问
全部评论
腾讯阿里都面了呀,你更像去哪一个
点赞 回复 分享
发布于 2025-12-21 23:23 北京

相关推荐

给我面没招了,感觉自己好菜、面试很难,还是要多多练习1.项目拷打2.你在去部署或者训练预训练或者后训练的模型时,有没有用过一些比较底层的一些训练的调试的工具,比如说千卡的话很容易就会出NCCL timeout,如果出现 NCCL timeout,一般怎么定位和解决?3.像那种rl里面的那个MOE之类的那种的优化有去做过吗4.看您的训练经验比较丰富,而且您上线运行的推理内容之前也进行过一些什么样的优化吗?5.有没有做过 kernel级别的优化?比如用 CUTE DSL或者手写 CUDA去做 fusion这类算子融合优化,介绍一下6像底层,如果你们在做.kernel fusion,倾向于用什么方式来做7.有没有哪次你做了 fusion 结果性能反而下降的?原因是什么8.平时写 CUDA的时候,有没有关注到底层实现细节?比如你刚提到 FA2,那再往下一层,像 Hopper架构里那个 warp specialization是什么,它底层大概是怎么实现的9.试过用 Agent去生成cuda内核么,怎么去做的10.如果我把 warp specialization 去掉,只保留 tile 和 shared memory 优化,大概会损失在哪?11.怎么么判断一个 MoE 模型是真的学到了分工,而不是只是把 dense模型拆开了12.在 RL + MoE 里,有没有遇到过 reward把 routing学坏的情况?就是模型为了拿 reward,全都走某几个 expert,这种情况你当时是怎么处理的
查看11道真题和解析
点赞 评论 收藏
分享
03-31 17:43
重庆大学 Java
点赞 评论 收藏
分享
评论
2
11
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务