字节多模态算法凉经,不知道为啥挂了...

1.实习介绍
2.防止 sft 灾难性遗忘你有哪些方法?
3.sft 和 rl 区别是什么?数据格式有什么区别?
4.Reasoning 推理过程有做什么 rl 吗?有哪些奖励?
5.rl 有哪些算法?reward 常见的有哪些任务?
6.为什么现在不用 reward model?区别是什么?
7.PPO 模块介绍一下,公式说一下?critical model 什么作用?
8.DPO 公式介绍一下,和 sft 有什么区别?
9.GRPO 少了哪些模块,如何在 GRPO 基础上防止模型波动?
10.介绍位置编码,PE、ROPE,现在常用哪些?为什么现在模型上下文只到 128K,如果是你你会做哪些改进?
11.高效推理了解过吗?如何做到高效推理?你知道哪些方法?
12.Lora 是什么?初始化讲一下?是否能对换?还有哪些变体?
13.KL散度作用是什么?推一下公式。如果是确定标签,那会有什么变化?从数学原理解释
13.编辑距离,用 n 的空间复杂度,如果我要打印编辑路径,你会怎么改,在哪个地方改?
基本全答上来了,手撕也很快,实在不知道为什么挂了
全部评论
感觉年前kpi面
点赞 回复 分享
发布于 02-09 16:20 河南

相关推荐

发一下问题给大家参考,攒攒人品!1.项目拷打2.实习拷打3.论文拷打4.你更希望找长期实习,那你觉得什么样的工作内容会让你更愿意一直做下去?5.在xx那段主要是做数学解题这个方向,这个事情当时业务上是要解决什么问题?6.一开始为什么是用OCR加文本这种方案?后面为什么觉得不太够用了?7.你们后来换成多模态,是在哪些场景下收益最明显?8.你做的那一整套训练流程,对最终效果提升最大的是哪一块?9.模糊图效果提升挺多的,这块你觉得主要解决了什么问题?10.你们在数据这块做了很多处理,比如去重这些,这些工作你觉得值不值?有没有量化过收益?11.在强化学习这块具体是负责哪一部分?12.奖励大概是怎么定义的?有没有遇到奖励不合理的情况?13.强化学习训练过程中,有没有出现模型“学歪了”的情况?是怎么处理的?14.在xx公司那段用的是GRPO,当时为什么会选这个方法?15.小模型能做到80%以上这个效果,你觉得核心原因是什么?16.在比赛里做的是Agent推荐,这个和传统推荐最大的区别是什么?17.多代理那套方案里,哪一部分是你觉得最关键的?18.做了memory,这个东西实际带来的提升是什么?19.对现在这种Agent框架,比如OpenClaw,整体怎么看?20.如果让你用OpenClaw去做一个发券或者运营自动化,你第一步会怎么设计?21.你觉得这种Agent在业务里最大的风险点是什么?
查看21道真题和解析
点赞 评论 收藏
分享
评论
点赞
2
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务