腾讯大模型算法一面-校招面经
1.自我介绍及项目经历
2.如何增强模型的多轮对话能力?
3.介绍MoE (混合专家)架构核心优势。
4.阐述大模型训练与推理的完整流程。
5. 对比 LORA 微调 Qwen 模型两种微调方式的性能表现。
6.FlashAttention v1 和 v2 的主要改进点分别是什么?
7.CoT(Chain-of-Thought)训练数据是如何构造的?
8.当前主流的强化学习算法有哪些?
9.代码:LeetCode 22,实现“括号生成”问题
2.如何增强模型的多轮对话能力?
3.介绍MoE (混合专家)架构核心优势。
4.阐述大模型训练与推理的完整流程。
5. 对比 LORA 微调 Qwen 模型两种微调方式的性能表现。
6.FlashAttention v1 和 v2 的主要改进点分别是什么?
7.CoT(Chain-of-Thought)训练数据是如何构造的?
8.当前主流的强化学习算法有哪些?
9.代码:LeetCode 22,实现“括号生成”问题
全部评论
相关推荐
01-31 10:30
浙江大学 算法工程师 1.项目介绍2.llamfactory和huggingface框架的区别3.模型幻觉怎么处理,为什么会有幻觉4.模型输出的处理,如果输出不是你想要的该怎么办5.栈和堆,c++的智能指针代码:手撕最大堆
查看6道真题和解析 点赞 评论 收藏
分享
vivo公司福利 712人发布