百度ACG智能制造图像算法三面凉

末流985渣硕,非科班,一篇可有可无的水刊论文,没有ccf论文,比赛2个三等奖,1个二等奖,都是小比赛。
1面:
简历深挖,论文深挖(有个没发表的工作,个人感觉还不错,主要介绍了这个工作,反响不错)
检测里面,样本类别不平衡如何处理
iou loss介绍
hrnet介绍
fpn相似的特征融合介绍
算法题很简单,可能前面说的比较好,所以就出的题简单,不记得原题了,不贴了easy难度
反问

2面:
简历深挖,毕设深挖
fpn相似的特征融合介绍
小目标检测如何处理
简介faster rcnn
如何做剪枝
算法题还是很简单,印象中就做个宽搜,感觉起来以为很顺利,没想到三面拉跨了


3面:
先看了眼发表的论文,觉的没的聊,转而问毕设...
比赛用了什么特殊的tricks
然后有个遥感跟踪的比赛,问为什么不用deepsort这种现成的方案
回答那是多目标跟踪,和单目标不同,某些元件可以适用

到这还好吧...就普普通通,也没啥特别的表现,也没啥特别的失误

接下来突然开始开放题,人麻了....可能觉得没啥特别突出的地方就想刁难下吧,hhhh

第一题是目标检测中,有这样一种情况,把一个目标放到一个陌生的背景,检测模型就失效了,问这个怎么解决
回答了数据增强,把背景mask掉,训练时减少对背景的关注,attention加大对目标的注意力,用domain adaptation领域的方案,困难样本挖掘
说了挺多,但是好像都不满意,给我补了2种数据增强的方法,mixup和mosaic,就直接下一个问题了

第二题问10k样本用SGD,batchsize取1,100,10000哪个收敛最快
刚开始回答10000,然后他又说100迭代100次等于10000迭代一次,懵了一下..然后觉得lr相近那迭代100次怎么也还是很有机会超过10000batchsize迭代一次,
毕竟batchsize再大,一次迭代也还是梯度平均后的走一步,而且考虑一个极端情况每个样本都一模一样,那我batchsize1迭代10000次肯定比10000batchsize迭代1次好。
不过他不满意我这个回答,看上去想引导下,但是实在是catch不到他的点?也许是想要我回答10kbatchsize直接退化成GD了?方向都是固定所以一定更快?不懂,不明白。
随口说了个100,看起来他累了不想引导了。
大概知道凉了,算法题也不出了。反问就随便问了下,结束了,hhhh

希望能帮到大家

#百度2022提前批开始了##面经##百度##算法工程师##校招#
全部评论
老哥,请问下你是直接投的智能制造这个部门的吗
1 回复
分享
发布于 2021-07-28 15:02
batch,1的话随机性太大,要走很多弯路,10000的话就体现不出不同batch的样本差异了,波动不大,容易陷入局部最优
1 回复
分享
发布于 2021-07-28 16:29
饿了么
校招火热招聘中
官网直投
在哪里投递的呢?         三面和前面有什么不同呢?侧重点?为什么挂了?
1 回复
分享
发布于 2021-07-28 23:10
您好,百度一般面试之间会隔多长时间
1 回复
分享
发布于 2021-07-29 12:19
在学习率默认1e-3的情况下,batchsize取100更好,10000太大了。正常来说batchsize肯定是越大收敛速度越快,大的batchsize需要的batch数目少,1个小时就可以训练完imageNet。而且大的batchsize梯度更稳定,loss曲线更平滑。但是如果batchsize过大,会导致效果变差(大的batchsize收敛到sharp minimum, 小的batchsize收敛到flat minimum,后者泛化能力更好)。论文中目前研究batchsize超过8000之后,效果就不好了。当然如果能够增大学习率,可能10000是最优的(因为样本量也挺大的)。我觉得面试官这个题目应该多给些条件,比如学习率固定为多少?
1 回复
分享
发布于 2021-08-21 09:51
怎么知道自己fail了呀
点赞 回复
分享
发布于 2021-07-30 21:43
咋都爱问目标检测呢 哭
点赞 回复
分享
发布于 2021-08-03 11:42

相关推荐

3 16 评论
分享
牛客网
牛客企业服务