携程大模型算法实习面经分享
攒人品中,祝大家都能拿到满意的Offer!
1.lora微调原理
2.P tuning
3.强化学习 ppo grpo
4.prompt 微调
5.attention结构
6.gpt12的结构
7.Deepseek r1 训练四个阶段
8.Encoder only decoder only 区别
9.Llamma12的结构
10.Deepseekv2 v3 r1 r1 zero的结构和训练过程
11.探讨moe技术细节以及未来发展的困境
1.lora微调原理
2.P tuning
3.强化学习 ppo grpo
4.prompt 微调
5.attention结构
6.gpt12的结构
7.Deepseek r1 训练四个阶段
8.Encoder only decoder only 区别
9.Llamma12的结构
10.Deepseekv2 v3 r1 r1 zero的结构和训练过程
11.探讨moe技术细节以及未来发展的困境
全部评论
考虑多多吗,核心部门,实习hc很多,转正概率多,有兴趣点我主页了解详情
相关推荐
03-12 17:47
蚌埠坦克学院 Java 点赞 评论 收藏
分享
查看10道真题和解析