竞争激烈:米哈游大模型算法岗面经

1.请简述什么是大模型,以及它与传统模型的主要区别是什么?
2.你如何评估大模型的性能?有哪些常用的评估指标?
3.请描述一下你如何对大模型进行优化,以提高其性能和效率。
4.你是否有过使用或开发大模型的经验?请分享一个具体的案例。
5.大模型中的注意力机制是如何工作的?它在大模型中起到了什么作用?
6.大模型中的优化算法有哪些常见的选择?它们各有什么优缺点?
7.如何处理大模型训练过程中的梯度消失或梯度爆炸问题?
8.在大模型设计中,如何权衡模型的复杂度和性能?
9.面对大模型训练和推理所需的庞大计算资源,你有什么解决建议?
10.请简述你了解的大模型的主要结构特点。
11.reward bench上的reward model分哪几类?
12. reward model如何训练的,训练目标是什么?
13.dp0训练的损失函数和训练目标,dpo如何改进怎么理解大模型安全,包含哪些方面的内容?
14.指令跟随能力的评估集有什么,如何评估的?
15.阿尔法狗强化学习策略是什么?提升推理能力和指令跟随能力哪个更难, 为什么, 提升指令跟随能力的优化方式和其他的比如推理有什么不一样的地方?
16.dpo训完了一般输出长度会变化吗? 如何解决这个问题大模型训练过程学习率一般是怎么变化的, 退火阶段学习率如何变化
的?
17.在开发大模型时,当你面临推理阶段的资源需求时,你如何确保模型的可解释性和公平性?
18.谈谈你对Transformer模型的理解,以及它在自然语言处理中的应用。
19.请简述Transformer的基本结构和工作原理?
20.为什么Transformer使用位置编码(Positional Encoding)?
21.如何优化 Transformer 模型的性能?
22.Transformer在自然语言处理中有哪些应用?
23.transformer里边norm的位置在哪里,norm如何计算的多头自注意力机制的作用是什么?
24.注意力机制为什么除以根号dk, 为什么不是dk请解释什么是注意力机制,并举例说明其应用场景。
25.注意力机制是如何工作的?请简述其计算过程。
26.多头注意力机制是什么?它相比单头注意力有什么优势?
📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
全部评论
点赞 回复 分享
发布于 2025-07-28 21:50 江苏

相关推荐

查看11道真题和解析
点赞 评论 收藏
分享
给我面没招了,感觉自己好菜、面试很难,还是要多多练习1.项目拷打2.你在去部署或者训练预训练或者后训练的模型时,有没有用过一些比较底层的一些训练的调试的工具,比如说千卡的话很容易就会出NCCL timeout,如果出现 NCCL timeout,一般怎么定位和解决?3.像那种rl里面的那个MOE之类的那种的优化有去做过吗4.看您的训练经验比较丰富,而且您上线运行的推理内容之前也进行过一些什么样的优化吗?5.有没有做过 kernel级别的优化?比如用 CUTE DSL或者手写 CUDA去做 fusion这类算子融合优化,介绍一下6像底层,如果你们在做.kernel fusion,倾向于用什么方式来做7.有没有哪次你做了 fusion 结果性能反而下降的?原因是什么8.平时写 CUDA的时候,有没有关注到底层实现细节?比如你刚提到 FA2,那再往下一层,像 Hopper架构里那个 warp specialization是什么,它底层大概是怎么实现的9.试过用 Agent去生成cuda内核么,怎么去做的10.如果我把 warp specialization 去掉,只保留 tile 和 shared memory 优化,大概会损失在哪?11.怎么么判断一个 MoE 模型是真的学到了分工,而不是只是把 dense模型拆开了12.在 RL + MoE 里,有没有遇到过 reward把 routing学坏的情况?就是模型为了拿 reward,全都走某几个 expert,这种情况你当时是怎么处理的
查看11道真题和解析
点赞 评论 收藏
分享
评论
2
32
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务