26算法秋招阿里一面凉经
1.问项目
2.正样本比较少的时候怎么去解决这个问题?
3.InfoNCE中的超参调整,怎么理解(正负样本比例和batch size)
4.InfONCE和其他loss有没有什么联系?比如bert中,NSP任务其实也是一个对比学习的思想,但是只考虑一个正负样本,效果可能不好。
5.了解多模态大模型,如Qwen-VL吗
6.lora(接在旁边/后面),为什么不接在后面?rank高低有什么影响,对于少量样本,lora好还是sft好?相对于sf的优劣势?
7.Deepseek r1中的训练方式有什么特别之处?怎么做的think?RLHF的流程是什么?
8.量化加速方面有了解吗?解释一下vllm
无手撕
2.正样本比较少的时候怎么去解决这个问题?
3.InfoNCE中的超参调整,怎么理解(正负样本比例和batch size)
4.InfONCE和其他loss有没有什么联系?比如bert中,NSP任务其实也是一个对比学习的思想,但是只考虑一个正负样本,效果可能不好。
5.了解多模态大模型,如Qwen-VL吗
6.lora(接在旁边/后面),为什么不接在后面?rank高低有什么影响,对于少量样本,lora好还是sft好?相对于sf的优劣势?
7.Deepseek r1中的训练方式有什么特别之处?怎么做的think?RLHF的流程是什么?
8.量化加速方面有了解吗?解释一下vllm
无手撕
全部评论
相关推荐
点赞 评论 收藏
分享
快手成长空间 767人发布