腾讯-混元大模型面经-华5硕-主页内tui

腾讯-混元大模型面经-华5硕-主页内tui

❗❗腾讯26届春招提前批/26届暑期实习生/日常实习生/25届补录招聘启动 | 所有专业类型均有岗位
🏅中国民营企业500强排行榜第6位

【在招岗位】
1. 技术类:软件开发、技术运营、安全技术、测试与质量管理、技术研究、解决方案与服务、硬件开发
2. 产品类:游戏产品、内容制作、通用产品、金融产品、项目管理
3. 设计类:游戏美术、平面交互
4. 市场类:战略投资、市场营销、公共关系、销售拓展
5. 职能类:财经分析、人力资源、法律与公共政策、行政支持

【招聘范围】应届生(24届、25届可投)、实习生(在校生可投)、青云计划(23届/24届/25届博士、24届/25届硕士)

【网申链接】
https://join.qq.com/resume.html?k=ANQI6RfQ3rhPS2dpyIkeSw

腾讯-混元大模型面经-华5硕
部门与岗位:TEG - 混元大模型团队 - 大模型对齐
一面
自我介绍,过实习,讲论文,论文过的比较细,有说的笼统的地方面试官会实时进行询问交流
了解哪些大模型,简要挑一两个介绍一下,当时说了 Qwen 和 DeepSeek,然后面试官又问了这两个有什么区别
接着上一问,为什么大家都开始探索 MoE 架构,MoE 相比 Dense 有什么好处
在之前实习的时候用 LoRA 微调过 Qwen,于是问了有没有全量微调过,有没有对比过两者的性能表现
讲一下大模型训练和推理的流程,SFT 和 RLHF 的作用分别是什么
在 RLHF 中,目前主流的强化学习算法有哪几个,写一下损失函数的表达式
代码:22. 括号生成
代码:多头自注意力
一面问的八股还是比较多的,问的也比较细,而且还写了两道代码题,整个面试花的时间也比较多,大概一个半小时左右
二面
自我介绍,过实习和论文,面试官会一起进行探讨,包括工作的动机、贡献和结果,也会提一些问题和建议
之前实习用 DeepSpeed 微调过 Qwen2-72B,于是面试官问了 ZeRO-1,ZeRO-2,ZeRO-3 三个模式的区别
当时你用 DeepSpeed ZeRO-3 来微调 Qwen2-72B,每一张卡占用的显存大概是多少,估算一下为什么是占这么多的显存

除了 DeepSpeed,还用过其他的什么优化方法吗
我看你也用到了 LoRA,知道 LoRA 的原理吗,A 和 B 两个矩阵怎么初始化,有了解过其他的初始化方法吗
对 RLHF 了解的多吗
代码:3. 无重复字符的最长子串
二面更多的是结合具体的工作来问的,从用到的东西来引出问题,问的也比较灵活。当然因为部门主要是做对齐的,所以也大概聊了聊 RLHF
三面
自我介绍,挑一个觉得做的比较好的论文和实习讲一下,面试官问的比较详细,为什么选现在这种方案,为什么 work,其他方案有考虑吗
在微调 Qwen 的时候,数据是怎么构造的,有用到什么数据清洗方法吗,数据配比是怎么做的
讲一下 RLHF 的流程,之前有用 RLHF 做过模型对齐吗
在做对齐的时候,为什么 SFT 之后还要做 RLHF,只用 SFT 可以吗
知道哪些强化学习算法,除了 PPO 和 DPO 这些呢,DeepSeek 用的 GRPO 相比于 GPT 的 PPO 做了哪些改进
开放题:对目前大模型的发展有什么看法
代码:零钱的两个题 322. 零钱兑换518. 零钱兑换 II
三面面试官更聚焦于对齐这一块的内容,考的比较深。由于之前没有接触过强化学习,答得还是比较吃力的,不过面试官还挺好的,会一起讨论来做引导
四面
自我介绍,过论文和实习,问的也比较细,这里能明显的感受出来面试官的视角更系统,会把这些工作串起来问我看你简历上没写 RLHF,平常有用过 RLHF 吗
推导一下神经网络反向传播的过程一道排列组合的概率题
开放题:你觉得大模型目前还有哪些可以改进的点
四面整体更看重思维和基础,没有考察什么八股
总结
一共四轮技术面,整体来说强度比较大,对于大模型八股的考察比较细,对大模型的理解问的也比较深刻,包括一些数理逻辑基础,考察的比较全面

#26届实习##大模型##八股##面经##腾讯##内推#
全部评论

相关推荐

✅一面1️⃣时间:1h+自我介绍2️⃣项目介绍:问的很细,过程中不停打断提问算法竞赛项目,整体数据处理流程、模型效果评估方法、心得体会3️⃣八股:简单介绍一下 BERT 和 TransformerAttention 和 self-attention 有什么区别?4️⃣Transformer 的复杂度Bert 用的什么位置编码,为什么要用正弦余弦来做位置编码?还知道其他哪些位置编码?5️⃣除了 bert 还做过哪些模型的微调?为什么现在的大模型大多是 decoder-only 的架构?6️⃣讲一下生成式语言模型的工作机理用过 LoRA 吗?讲一下原理?7️⃣算法题最大子段和跳台阶其他问后续安排和实习时长,以及反问✅二面1️⃣自我介绍2️⃣项目:深挖八股Transformer 结构和 LSTM 的区别和优势,Transformer 怎么体现时序信息?3️⃣Transformer Encoder 和 Decoder 的输入输出和结构BatchNorm 更多用在视觉上,LayerNorm 更多用在语言上,为什么有没 chatGLM,LLaMA 等部署、微调经历?4️⃣有没有了解过大模型加速推理?5️⃣讲一下 Flash Attention?6️⃣算法题先说思路再写代码1、数组中的第K个最大元素2、数组 nums 表示若干个区间的集合,请你合并所有重叠的区间,并返回一个不重叠的区间数组,该数组需恰好覆盖输入中的所有区间。输入: nums =[[1,3],[2,6],[8,10],[15,18]]输出:[[1,6],[8,10],[15,18]]📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
查看20道真题和解析
点赞 评论 收藏
分享
补发一下之前面试腾讯的面经,具体timeline可以参考前面的帖子。一面(约30mins):自我介绍,挑一个简历里最好的一个项目详细介绍下项目中遇到了什么挑战,怎么解决的了解DeepSeek吗,为什么DeepSeek现在这么火?说一下DeepSeek里的MLA和GRPOGRPO和DPO,PPO,RLHF的区别看你之前有LoRA微调DeepSeek的项目,简单说说微调经验,效果如何RAG在检索阶段能有哪些优化?(sub-query,HyDE等)二面(约1h10mins):自我介绍,拷打简历。写一下GRPO的公式先屏幕共享从头到尾walk through讲一下DeepSeek技术报告论文。面试官中间会穿插提问DeepSeek-v3/r1/r1-zero有什么区别DeepSeek-r1-zero的冷启动数据是怎么组成的DeepSeek-r1-zero解决了DeepSeek-r1的哪些问题如何解决大模型的幻觉Embedding如何微调(讲了对比学习啥的)RAG的评测指标有哪些业界现在function call的做法和水平场景题:大致是RAG中检索结果遇到张冠李戴的问题该如何解决举几个例子能够体现你的研究能力三面(约30mins)拷打LoRA微调项目,问了实验的数据集,参数设置,结果如何等等你目前的研究方向主要是什么?讲一下ReRanker的目的,做法有哪些场景题:我现在运用RAG来检索回答,目标是检索四个季度的表格数据,但是经过检索+ReRanker后只出现了三个季度的数据,该如何解决hr面(约15mins)比较常规,大致如下:用三个词语描述下你为何能胜任这份工作你的优缺点都说一下你过往实习项目中遇到过的最大困难是什么,怎么解决的最早实习时间,实习时常引流:腾讯字节阿里淘天美团拼多多
Rafae1:接好运
查看27道真题和解析
点赞 评论 收藏
分享
评论
1
3
分享

创作者周榜

更多
牛客网
牛客企业服务