携程大模型实习面经

1.lora微调原理
2.P tuning
3.强化学习 ppo grpo
4.prompt 微调
5.attention结构
6.gpt12的结构
7.Deepseek r1 训练四个阶段
8.Encoder only decoder only 区别
9.Llamma12的结构
10.Deepseekv2 v3 r1 r1 zero的结构和训练过程
11.探讨moe技术细节以及未来发展的困境
📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
全部评论

相关推荐

评论
点赞
1
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务