携程大模型实习面经
1.lora微调原理
2.P tuning
3.强化学习 ppo grpo
4.prompt 微调
5.attention结构
6.gpt12的结构
7.Deepseek r1 训练四个阶段
8.Encoder only decoder only 区别
9.Llamma12的结构
10.Deepseekv2 v3 r1 r1 zero的结构和训练过程
11.探讨moe技术细节以及未来发展的困境
📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
2.P tuning
3.强化学习 ppo grpo
4.prompt 微调
5.attention结构
6.gpt12的结构
7.Deepseek r1 训练四个阶段
8.Encoder only decoder only 区别
9.Llamma12的结构
10.Deepseekv2 v3 r1 r1 zero的结构和训练过程
11.探讨moe技术细节以及未来发展的困境
📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
全部评论
相关推荐
查看10道真题和解析