哔哩哔哩大模型算法校招一面
1.实习介绍
2.SFT中数据是怎么构造的 cot是怎么写的
3.Cot的组成
4.Transformer的架构介绍一下,self attention和cross attention的区别
5.为什么大模型使用的是encoder
6.PPO与DPO的区别
7.PPO里用了几个模型,训练时更新哪个模型
8.Python深拷贝与浅拷贝
9.代码:子集问题
2.SFT中数据是怎么构造的 cot是怎么写的
3.Cot的组成
4.Transformer的架构介绍一下,self attention和cross attention的区别
5.为什么大模型使用的是encoder
6.PPO与DPO的区别
7.PPO里用了几个模型,训练时更新哪个模型
8.Python深拷贝与浅拷贝
9.代码:子集问题
全部评论
相关推荐
查看22道真题和解析