首页 > 笔经面经 > 实习算法岗血泪面经,商汤,旷世,阿里,字节跳动

实习算法岗血泪面经,商汤,旷世,阿里,字节跳动

头像
Neymarkim
发布于 2019-05-21 21:35:30 APP内打开
赞 30 | 收藏 328 | 回复22 | 浏览14891

前言

附上一段应景古文:
浩浩乎,平沙无垠,夐不见人。河水萦带,群山纠纷。黯兮惨悴,风悲日曛。蓬断草枯,凛若霜晨。鸟飞不下,兽铤亡群。亭长告余曰:“此古战场也,常覆三军。往往鬼哭,天阴则闻。

先介绍下背景, 在下末流985学校水垮垮的硕士(实在不敢用渣硕,牛客网的渣硕都是些什么怪物?),有两个机器学习比赛,名次属于刚刚能写进简历的,论文还在投,也厚颜***的写进简历了,简历整体来说还是属于比较单薄的。
3月末导师要求的论文差不多弄完了才开始准备投实习,以为找实习肯定比较简单,找个不错的公司,然后就商汤,旷世,阿里,嘿嘿,然后就体会到了什么叫井底之蛙,夜郎自大。

1.旷世CV岗(一面跪) 4月初

第一个面的就是旷世,这其实是我最想去的公司,有大神学长带,离学校很近。我一直有点后悔,要是我能早准备两周,或者能晚面几周,结果会不会不同呢
1.自我介绍,项目介绍
2.FCN结构介绍,上采样的具体操作
3.空洞卷积原理,deeplab v1 v2的改进
4.focal loss介绍, lovasz loss数学原理(这个项目里面用了但没回答上)
5.一道题,计算卷积操作的浮点计算量,比较简单
6.介绍下RPN的原理
7.mobile net 
8.unet的缺点,最新的改进版本有没有看过(这个没回答上,很伤,之前还有人提醒过我)  附上unet++ 论文连接 https://arxiv.org/pdf/1807.10165v1.pdf
9.何凯明最新的文章读过吗,能不能讲讲(gg)
时间挺短的 半个多小时 可能真的觉得我CV算法方面浅尝辄止,既没有深度也没有广度,


2.商汤CV岗位(一面跪)  

旷世还算走的比较安静,商汤就有点惨了
1.自我介绍,项目介绍
2.常用的目标检测算法,one stage two stage的区别
3.比赛中如何解决样本不平衡,以及用了什么训练技巧,为什么能起作用,其原理是什么(回答的不是很好)
4.数据增广方法
5.现在有些什么降低模型复杂的的方法,我说了两点,使用一些降低计算量的结构比如mobile net shuffle net,然后模型剪枝(这个就把自己坑了)
7.mobile net shuffle net具体结构,如何降低计算量,给了我一个DW卷积具体实例让我算降低了多少计算量
8.模型剪枝的方法,具体细节(没回答上)
9.SE介绍
后面还有两个问题我记得不到,因为没听懂hhh,然后问我C++我也不会, 反正挺惨的,面试官直接说我知识面不够宽


3.阿里机器学习 

一面  4.25 

基本没问其他是么难的问题,就对着简历问 25分钟结束
1.自我介绍,项目介绍
2.XGB lightgbm GBDT的关系和区别
3.CTR比赛中如何做的特征
4.模拟退火算法介绍
5.attention

阿里二面  5.7

自我介绍都省了
1.一道编程题,现在有包含很多个样本数据的数组,现在对这些数进行多次有放回采样,但每个数都有自己的采样概率,这个概率存在另外一个数组里面,总概率是1,问怎么实现这个采样过程。
我做了15分钟才做出来,每次采样都需要耗费logN的时间复杂度,面试官说有常数时间的方法,我当时没想到,下来才想出来。
2.给他详细讲做的CTR比赛,包括提取了什么特征,怎么选择特征,怎么优化模型
3.简单给他讲做的图像分割比赛
4.LSTM和RNN
5.attention
6.dropout 和BN
7.resnet特点
阿里二面差不多一个小时,编程20分钟,讲项目10多分钟,问了20多分钟,问的整体很基础简单,没什么刨根问底的问题。
阿里整体招聘体验真的很差,我不是内推,也没法查进度,笔试到一面2周,一面倒2面10天,现在又过了两周了还是没消息,估计是凉了

4.字节跳动(今日头条) 机器学习

字节也是4月投的,前两天才来消息,可能是突然缺人,必须夸一下字节的面试体验和效率,完全无间隔,前一天晚上一面,早上二面,三面(HR),给了口头offer,终于让我稍微有了守得云开见月明的感觉。

一面  5.19

1.自我介绍,项目介绍
2.lightgbm GBDT xgb,问的超级细,可能持续了7 8分钟,XGB残差怎么用一次和二次梯度求,分裂点怎么求,思想原理是什么。XGB实际使用中重要的超参数,你们比赛中用的目标函数是什么,为什么lightgbm速度更快,其并行计算如何实现(这点没回答上)
3.bagging  boosting 的区别,谁是更关注方差 ,谁是更关注偏差
4.如何防止过拟合,项目中用过哪些手段
5.W2V 的原理 ,两种生成方式,W2V的思想到底是什么,为什么要这样做,W2V的缺点,W2V中所用的softmax 比起普通softmax有何区别,为什么能减少计算量(我并不是搞自然语言的,这一波问的我有点捉襟见肘,只是勉强回答了,面试官很好,我没回答清楚地就给我讲,引导我)
6.embeding的方法 FM FFM deep FM
7.attention (毕竟是 attention is all you need 基本都会问)
8.给他讲做的CTR比赛,主要问怎么做特征,onehot 特征多了会有什么问题,为什么有时会导致效果下降(我回答的是onehot 特征占用维度太高,可能会湮没其他一些重要的特征)
可能还有一些问题记不起来了,反正真的就是抓住一个点,不停地深入
9.模型的容量问题
10.编程,比较简单的二分法
一面 1H35min 可真是太恐怖了,但整体体验很好,面试官会给你讨论,给你讲

二面  5.21

1.开门见山,一道概率题,真的懵了,先问我bagging  boosting 的区别,我愉快的回答了,然后题就来了,bagging 中随机有放回采样,假如一共有N个样本 采样了N次,得到N个采样数据,去重后有X个数据  求E(X),我只列出了暴力计算的方法,是有简单的我没想出来,各位大神知道的可以讲讲
2. resnet VGG介绍 主要特色
3.1*1的卷积核 有什么用
4. max pooling 梯度传导 
5.如何防止梯度消失,为什么会有梯度消失 
6.又是做题,数据结构的,找出一颗完全二叉树最后一个节点,时间复杂度要求 logN的平方 

HR面  5.21

二面10分钟后就是HR面,问问基本情况,但问的还是很多,从实习的时间,工作的兴趣和期望,自我感觉的优缺点,曾经面临的困难,抗压能力等等吧
HR小姐姐一来就说她们不会刷人,只要我确定能去就能发OFFER,当时比较激动,连小姐姐声音好不好听都记不得了,我想肯定是很好听的。

总结

不管怎么说,真能拿到一个已经很高兴了,还是字节的,不要在意身边的“渣硕“轻轻松松就把offer拿的就盆满钵满,我们常人就是一次次失败后才有可能拨云见雾,在面试过程中学习也是受益匪浅的! 
当存九天揽月志,虽败犹能伴群星,多去面一些难的公司,即便去不了也涨了见识,明白自己的差距总比一直当井底之蛙要好多了。
最后写的才是最心酸的
拿到了又能如何,过不了导师这一关,永远都是慢慢长夜,不说了,之后要想想怎么和导师斗智斗勇了
希望所有人都能找到自己满意的工作!

 

22条回帖

回帖
加载中...
回帖

相关热帖

近期热帖

热门推荐