百度,智源一面

百度智源连着,难蚌
百度感觉又寄了。。。。面试官一点兴趣没有的样子,有点压力。
1.自我介绍
2.项目拷打
大模型联邦学习你们是做了什么?
为什么用 Qwen2?你们有没有遇到一些比较创造性的任务小模型比大模型差很多?怎么抉择。
你所谓的高质量数据,这个质量是怎么评定的?
二分类任务一般用哪些指标判断?(我说 auc,因为自己做一些推荐预测是样本非常不均衡)
那对于不均衡样本有什么办法吗?(我说重采样欠采样)
从训练角度有什么办法吗?(不会。。。loss 可以有权重啥的瞎讲)
这些指标你一般看哪些?ppl 是什么?都是概率,他和交叉熵有什么区别?
有注意一般训练都会输出 ppl 吗?为啥?
KL 散度和交叉熵的关系?为什么不用 KL 散度做 loss?
介绍一下 DPO
有了解一些更新的 RLHF 吗
代码题
看到我写 Cpp,又问了几个 Cpp。。。都回答错了,太久远了。

代码题是类似于两个有序数组合并,但是要原地,第一个数组空间足够。
我归并的 and or 写错了一个,没跑出来。。。。只给了不到 10 分钟,然后不让我写了,也不问思路。
反问做什么业务:百度输入法,就不想问了,还急着智源。。。

智源
说是 coding 面但是比较简单
1.自我介绍
介绍了一下 peft 的那些几种微调方式
什么时候选择 lora?
lora 的几种变种知道吗?(不太清楚了,只知道一两个)
项目随便聊聊一个一个问了几分钟。

代码题
括号生成 回溯
反问 总的 25 分钟

感觉百度又凉了,很崩溃
全部评论
老哥之前不是百度已经三面了吗
1 回复 分享
发布于 2024-09-16 10:02 广东
百度输入法啊,让他爬,这感觉去不了一点吧
1 回复 分享
发布于 2024-09-14 21:01 陕西
虽然百度业务不行,但是面过的百度和字节的面试官一般都挺有水平的😂
点赞 回复 分享
发布于 2024-09-15 12:21 北京
智源你的这么简单嘛,我直接来了道机器学习题,根本不是leetcode,人直接没了,那老哥似乎是搞ai for science的。
点赞 回复 分享
发布于 2024-09-15 10:22 北京
智源是哪家公司?
点赞 回复 分享
发布于 2024-09-14 19:04 北京
百度工程味总觉得特别重
点赞 回复 分享
发布于 2024-09-14 18:52 四川

相关推荐

给我面没招了,感觉自己好菜、面试很难,还是要多多练习1.项目拷打2.你在去部署或者训练预训练或者后训练的模型时,有没有用过一些比较底层的一些训练的调试的工具,比如说千卡的话很容易就会出NCCL timeout,如果出现 NCCL timeout,一般怎么定位和解决?3.像那种rl里面的那个MOE之类的那种的优化有去做过吗4.看您的训练经验比较丰富,而且您上线运行的推理内容之前也进行过一些什么样的优化吗?5.有没有做过 kernel级别的优化?比如用 CUTE DSL或者手写 CUDA去做 fusion这类算子融合优化,介绍一下6像底层,如果你们在做.kernel fusion,倾向于用什么方式来做7.有没有哪次你做了 fusion 结果性能反而下降的?原因是什么8.平时写 CUDA的时候,有没有关注到底层实现细节?比如你刚提到 FA2,那再往下一层,像 Hopper架构里那个 warp specialization是什么,它底层大概是怎么实现的9.试过用 Agent去生成cuda内核么,怎么去做的10.如果我把 warp specialization 去掉,只保留 tile 和 shared memory 优化,大概会损失在哪?11.怎么么判断一个 MoE 模型是真的学到了分工,而不是只是把 dense模型拆开了12.在 RL + MoE 里,有没有遇到过 reward把 routing学坏的情况?就是模型为了拿 reward,全都走某几个 expert,这种情况你当时是怎么处理的
查看11道真题和解析
点赞 评论 收藏
分享
评论
2
13
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务