大模型算法三面-Minimax 攒人品中
#MiniMax求职进展汇总# 发点面经攒攒人品~
1.项目拷打
2.训练数据是如何构造的?如何做数据清洗、去重和质量控制?
3.RLHF 的完整流程是什么?
4.如果只使用 SFT,会带来哪些问题?
5.在 RLHF 中奖励模型的训练数据是怎么构造的?
6.如何避免奖励模型被策略模型“欺骗”?
7.你怎么看当前大模型在对齐、安全和成本上的挑战?
8.手撕:实现 区间第 k 小查询
支持多次查询,要求接近 O(log n)
1.项目拷打
2.训练数据是如何构造的?如何做数据清洗、去重和质量控制?
3.RLHF 的完整流程是什么?
4.如果只使用 SFT,会带来哪些问题?
5.在 RLHF 中奖励模型的训练数据是怎么构造的?
6.如何避免奖励模型被策略模型“欺骗”?
7.你怎么看当前大模型在对齐、安全和成本上的挑战?
8.手撕:实现 区间第 k 小查询
支持多次查询,要求接近 O(log n)
全部评论
强烈推荐!这个笔记写得很清晰 http://github.com/AccumulateMore/CV
大佬 考不考虑我司 考虑的话可以见我主页帖子

感觉似乎问的不多啊
相关推荐
查看10道真题和解析