美团基础研发 大模型算法工程师实习面经

一面

  • 自我介绍
  • 项目+论文
  • 为啥项目中使用Ptuning?
  • 说一下Ptuning的原理
  • 如何关注训练过程中的指标? 训练步数如何确定?
  • RLHF的整个流程详细
  • llama factory代码看过吗?
  • DPO了解吗?
  • 算法题 二分,medium, 旋转数组的最小数字

二面

二面面试官问了很多开放性问题,就是丢给你一个一个问题/实际的步骤,问你怎么解决,怎么考虑,而不是问某某东西的原理

  • 自我介绍
  • 项目
  • 训练大模型的数据如何弄的?
  • RLHF的三个流程中你觉得哪个应该是最重要的?为什么?
  • 为啥RLHF中要用PPO?和其他RL算法的区别?
  • 为什么需要Rewar model?
  • Reward model 如何训练?Reward model 你觉得训练到什么程度可以?
  • Reward model不准确怎么办?
  • 如何提升RLHF的效率?你认为关键在哪里?
  • DPO的原理?
  • Rewar model和训练的LLM模型用同一个基座模型可能有什么作用?
  • Reward有多个目标可以怎么做?
  • 算法题 爬楼梯 面试官会引导逐步改善最开始写的解优化算法到最优空间复杂度
#面经##美团##大模型#
全部评论
佬是项目里用了RLHF吗
2 回复
分享
发布于 03-25 09:16 江苏
佬什么时候面的
点赞 回复
分享
发布于 03-25 17:26 北京
联易融
校招火热招聘中
官网直投
Reward model 如何训练?Reward model 你觉得训练到什么程度可以?Reward model不准确怎么办?Rewar model和训练的LLM模型用同一个基座模型可能有什么作用?这几个问题 佬怎么回答的啊
点赞 回复
分享
发布于 04-06 14:43 广东

相关推荐

头像
不愿透露姓名的神秘牛友
04-10 11:37
点赞 评论 收藏
转发
9 64 评论
分享
牛客网
牛客企业服务