腾讯/百度/minimax 大模型算法面经总结帖

腾讯NLP
1.跨模态对齐有哪些方式?为何逐渐不使用Q-Former?
2. Baichuan2 - 7B模型架构是怎样的?其位置编码如何实现?与Qwen家的位置编码实现有何不同?
3. 了解Qwen - VL吗?其架构如何?有何独特之处?
4. Adapter、P - tuning和Lora之间的区别与联系是什么?
5. 数据集如何构建与评测?
6. 数据集评估过程中遇到哪些困难?如何解决?
7. RAG检索内容是否相关?有无进行Rerank或其他操作?
8. 对Agent有何看法?
9. 了解强化学习DPO吗?与PPO有何区别?有什么好处?
10. 谈一谈大模型完整训练过程及每一阶段的作用。

混元大模型团队
1.Qwen 和 DeepSeek 有什么区别?
2.为何大家都开始探索 MoE 架构?MoE 相比 Dense 有什么好处?
3.用 LoRA 微调过 Qwen,是否全量微调过?两者性能表现有何对比?
4.用 DeepSpeed 微调过 Qwen2 - 72B,ZeRO - 1、ZeRO - 2、ZeRO - 3 三个模式的区别是什么?用 DeepSpeed ZeRO - 3 微调 Qwen2 - 72B 时,每一张卡占用显存大概是多少?为什么?
5.除了 DeepSpeed,还用过哪些优化方法?
6.知道 LoRA 的原理吗?A 和 B 两个矩阵怎么初始化?了解过其他初始化方法吗?
7.讲一下大模型训练和推理的流程,SFT 和 RLHF 的作用分别是什么?
8.在 RLHF 中,目前主流的强化学习算法有哪几个?写出损失函数的表达式。
9.对 RLHF 了解多少?讲一下 RLHF 的流程。之前有用 RLHF 做过模型对齐吗?在做对齐时,为什么 SFT 之后还要做 RLHF?只用 SFT 可以吗?
10.知道哪些强化学习算法?除了 PPO 和 DPO,DeepSeek 用的 GRPO 相比于 GPT 的 PPO 做了哪些改进?
11.微调 Qwen 时,数据是怎么构造的?有用到什么数据清洗方法?数据配比是怎么做的?

CSIG腾讯地图
1. 进行自我介绍,聊简历上和大模型相关的项目(约5分钟)。
2. 讲一下LORA的基本原理。
3. 了解主流的开源大模型吗?如Llama、Qwen、deepseek。
4. 对Python的熟悉程度如何,能用pytorch写一下多头注意力机制吗?
5. C++的代码能力情况(较随意聊) 。
6. 手撕代码:反转链表和合并有序链表。
7. 反问问题:
    - 腾讯地图做的大模型应用是什么?
    - 对Manus的看法是什么? 

百度文心一言
1. PPO 与 GRPO 的区别,分别介绍它们的优势与缺点。
2.DPO 对齐训练的曲线是怎么样的,正例的概率会提升吗?参考这个知乎回答。
3.Deepseek - R1 里面不仅推理能力很好,而且文采能力也很好,这是个开放问题,如何让模型的文采能力也很好呢?
4.deepseed 介绍。
5.deepspeed 的每一段的通信比较,zero3 分别是 0 和 2 的多少倍,1.5 倍。
6.DPO 如何解决回答过长的问题,除了正则。
7.开放问题:为什么现在大家都在关注于大模型的推理能力 reasoning。
8.对于一个 base model 如何增强大模型的 reasoning 能力。
9.DPO 除了长度问题还有其他的问题吗?与问题 2 对应,reward hacking?都没有奖励模型了。
10.说一下 simpo 的原理,它是怎么解决 dpo 微调序列过长的问题的。

minimax
1.大模型算法中模型参数量每个部分有多少?
2.你了解哪些评估 minimax 大模型算法的手段?
3.如何评估 minimax 大模型算法中多模态模型的输出质量?
4.对于 minimax 大模型算法的数据集,如何提高质量?如何利用 gpt 辅助提升数据集质量?
5.有哪些方法可以提升 minimax 大模型算法中预训练模型的质量?
全部评论
mark一下大佬
点赞 回复 分享
发布于 2025-04-08 20:50 北京
mark一下大佬
点赞 回复 分享
发布于 2025-03-27 14:11 天津
8.在 RLHF 中,写出损失函数的表达式。 在纸上写??
点赞 回复 分享
发布于 2025-03-27 11:23 辽宁
4.用 DeepSpeed 微调过 Qwen2 - 72B,ZeRO - 1、ZeRO - 2、ZeRO - 3 三个模式的区别是什么?用 DeepSpeed ZeRO - 3 微调 Qwen2 - 72B 时,每一张卡占用显存大概是多少?为什么? 这个问题怎么答啊?感觉一直都搞不懂
点赞 回复 分享
发布于 2025-03-22 14:20 北京
有难度的,感谢分享!
点赞 回复 分享
发布于 2025-03-22 10:21 美国
mark一下大佬
点赞 回复 分享
发布于 2025-03-21 23:20 广东

相关推荐

03-30 18:50
门头沟学院 Java
给我面没招了,发点面经攒攒人品~1. 实习拷打2. 项目拷打3. 你的检索是否基于向量实现,搭建完整的 RAG 系统会涉及哪些核心部分?4. RAG 项目的文档上传和分块是怎么实现的?5. 向量检索召回的单次耗时是多久,有没有用到Rerank模型?6. 你如何评估检索召回内容与用户问题的匹配度,有没有做相关的效果评估?7. 你对 Agent 的理解是什么,它包含哪些核心模块?8. 是否了解 Agent 的设计范式,例如ReAct 范式?9. 你的 Agent 循环一般多少步可以完成任务,有没有出现过达到最大步数仍无法完成的情况?10. 你的 Agent 目前接入了哪些工具?11. 你是如何约定并约束大模型进行工具调用的?12. 你的项目推流是否使用 SSE?13. 你的 Agent 编排流程中有没有做 Plan 阶段?14. 从协议层面,介绍 SSE、WebSocket 与 HTTP 的区别和关联?15. 项目为什么限制每个用户只能上传单个文件?16. 项目的图像识别如何实现的,为什么不用多模态大模型,而选择传统的识别模型?17. 你的项目中用到了哪些大语言模型?18. 请介绍 Go 语言的并发和其他语言并发的区别?19. Goroutine 是什么,请介绍一下它的核心原理?20. 你对锁的理解是什么,锁是解决什么问题的?21. 日常开发中用哪种锁更多,还了解哪些后台开发常用的锁?22. 多机器、多进程场景下会涉及到哪些锁,是否了解分布式锁?23. 你对 MCP、Function Call、A2A 分别是怎么理解的?24. 你的项目接入了哪些 MCP 服务?有没有本地手写过 MCP 服务?25. 你日常开发会借助哪些 AI 工具?26. 使用这些工具的心得以及是否有写过相关的 command/skill?27. Claude Code 的实现原理?28. 是否了解OpenClaw以及了解它的实现原理?
LambertCla...:Claude Code实现原理都来了,难道是预测到了这波源码泄露
查看26道真题和解析
点赞 评论 收藏
分享
给我面没招了,感觉自己好菜、面试很难,还是要多多练习1.项目拷打2.你的知识库数据是如何清洗和构造的?如果数据质量参差不齐会对 RAG 系统产生哪些影响?3.文档切分策略是如何设计的?chunk size 和 overlap 会如何影响召回质量和生成效果?4.如果用户的问题在知识库中确实存在,但系统经常没有召回正确文档,你会如何排查?5.如果检索到的文档是正确的,但模型最终生成的答案仍然是错误的,你会如何定位问题?6.实际系统中,如果召回结果经常语义相似但事实不相关,你会如何优化检索模块?7.如果一个问题需要跨多个文档的信息才能回答,你的 RAG 系统如何处理这种情况?8.在 RAG 系统中如何判断问题出在检索模块还是生成模块?9.请详细说明 Transformer 从输入 token 到输出 logits 的完整计算流程。10.FFN 层为什么采用“先升维再降维”的结构,这种设计对模型表达能力有什么作用?11.MHA、MQA、GQA 在推理阶段的 KV Cache 占用和计算效率上有什么差异?12.为什么推理阶段 KV Cache 只缓存 K 和 V,而不缓存 Q?13.RoPE 的核心原理是什么,它在长上下文场景下会遇到什么问题?14.instruction tuning 中多轮对话数据训练时,loss mask 应该如何设计?15.如果 SFT 之后模型在特定任务上能力增强,但通用能力明显下降,你会如何解决?16.LoRA 的低秩分解为什么能够逼近全参数微调的效果?17.如果 LoRA 的 rank 设置不合理,在模型表现上会出现什么现象?18.DPO 训练后模型输出明显变长,在实际系统中你会如何处理?19.如果对齐之后模型变得过于保守,经常拒绝回答,你会如何调整训练策略?20.大模型出现复读机现象通常由哪些因素导致?
点赞 评论 收藏
分享
评论
15
141
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务