百度提前批机器学习算法二面面经

百度凤巢一面面经:

1、说一下bert(transformer, embedding, pre-training)

2、论文举例的模型有什么不同

3、做两个句子的语义相似度,bert结构怎么fine-tuning

4、Bert的embedding向量怎么来的

5、attention的概念,attention的本质是什么

6、了解强化学习吗,基本概念

7、LeetCode股票买卖问题(三种情况)

百度凤巢二面面经:

1、auc相关概念

2、seq2seq+attention结构

3、BERT模型结构,分类和句子翻译如何微调

4、LR和softmax区别

5、句子相似度和词相似度

6、句子翻译出现新词怎么处理

7、代码:二维数组路径和最小

8、代码:在一个排序的链表中,存在重复的结点,请删除该链表中重复的结点,重复的结点不保留,返回链表头指针。

9、概率题:2个盒子,50个红球和50个白球,怎么放使得摸到红球概率最大(计算步骤)

非科班,计算机基础不够扎实,另外没有顶会论文,凉经
#百度##面经##机器学习##算法工程师##校招#
全部评论
3、BERT,句子翻译如何微调 6、句子翻译出现新词怎么处理 这两个怎么回答哦?
点赞 回复
分享
发布于 2019-08-17 23:18
您好,请问下,能答对多少算正常😂
点赞 回复
分享
发布于 2019-08-19 16:19
联想
校招火热招聘中
官网直投
您好,请问怎么查询面试进度呢?没有过会不会给通知?
点赞 回复
分享
发布于 2019-08-25 06:31
想知道attention的本质是什么😂
点赞 回复
分享
发布于 2019-08-30 16:11
请问有后续吗
点赞 回复
分享
发布于 2019-08-30 23:51

相关推荐

【一面】对着项目问的比较多1. 线性回归的假设条件是什么2. 介绍lstm,transformer这些3. transformer相比于seq2seq,它的增量点在什么地方4. 因果推断和(事件发生前拟合一个模型,使用这个模型对事件发生后进行预测从而得到效应),增量在什么地方,有哪些本质上的区别(跟我的项目相关)5. 对于销量预测模型,你有什么思路;怎么进行模型选型;如果没有其他特征,只有按时间变化的销量,可以怎么预测?6. 一个人投篮的命中率是60%,是投10次至少命中7次的概率大,还是投100次至少命中70次的概率大(大数定律)7. 手撕:两个椭圆x^2+y^2/2=1,x^2/2+y^2=1,求这两个椭圆相交部分的面积(蒙特卡洛模拟,好像还可以使用极坐标直接求解,忘了)比较注重数理(可能也是因为我是数理出身)【二面】1. 50个黑球和50个白球,分别放进两个框,怎么放置,可以让一个人拿到白球的概率最大2. 一个细胞的生命有三个小时,每个小时都会分裂一次,到T时刻会有多少细胞呢?3. 希望在算法岗从事什么样子的工作4. 技术栈有哪些面试时间很短,面试官很佛系,没咋问【三面】1. 问对深度学习那块比较熟,回答时序预测,问有无读过现在的SOAT方法,回答无(没读过啥paper)2. 什么样的embedding是好的embeding,怎么评估3. 选择unieval模型是怎么做的模型选型4. 拿到一个新方向是怎么调研的,怎么去找论文的5. 介绍transformer,每个encoder的结构是什么6. 介绍self-attention7. 怎么理解q,k,v8. 可以使用同一个W_q和W_k吗9. 为什么q×k之后要scale,d 是什么10. 时空图(论文,但是别人做的这part,自己不太了解了)11. 手撕:打家劫舍(偏重对算法的理解,和项目实现上的一些细节)一二面反馈非常快,5分钟就会有下一面的反馈,三面无了,可能自己没过攒人品攒人品攒人品!许愿许愿许愿!
点赞 评论 收藏
转发
7 79 评论
分享
牛客网
牛客企业服务