携程 大模型算法 实习一面
继续来分享下之前的面经~欢迎友好讨论,信息共享
1.lora微调原理
2.P tuning
3.强化学习 ppo grpo
4.prompt 微调
5.attention结构
6.gpt12的结构
7.Deepseek r1 训练四个阶段
8.Encoder only decoder only 区别
9.Llamma12的结构
10.Deepseekv2 v3 r1 r1 zero的结构和训练过程
11.探讨moe技术细节以及未来发展的困境
1.lora微调原理
2.P tuning
3.强化学习 ppo grpo
4.prompt 微调
5.attention结构
6.gpt12的结构
7.Deepseek r1 训练四个阶段
8.Encoder only decoder only 区别
9.Llamma12的结构
10.Deepseekv2 v3 r1 r1 zero的结构和训练过程
11.探讨moe技术细节以及未来发展的困境
全部评论
相关推荐

查看10道真题和解析