百度提前批机器学习算法二面面经

百度凤巢一面面经:

1、说一下bert(transformer, embedding, pre-training)

2、论文举例的模型有什么不同

3、做两个句子的语义相似度,bert结构怎么fine-tuning

4、Bert的embedding向量怎么来的

5、attention的概念,attention的本质是什么

6、了解强化学习吗,基本概念

7、LeetCode股票买卖问题(三种情况)

百度凤巢二面面经:

1、auc相关概念

2、seq2seq+attention结构

3、BERT模型结构,分类和句子翻译如何微调

4、LR和softmax区别

5、句子相似度和词相似度

6、句子翻译出现新词怎么处理

7、代码:二维数组路径和最小

8、代码:在一个排序的链表中,存在重复的结点,请删除该链表中重复的结点,重复的结点不保留,返回链表头指针。

9、概率题:2个盒子,50个红球和50个白球,怎么放使得摸到红球概率最大(计算步骤)

非科班,计算机基础不够扎实,另外没有顶会论文,凉经
#百度##面经##机器学习##算法工程师##校招#
全部评论
3、BERT,句子翻译如何微调 6、句子翻译出现新词怎么处理 这两个怎么回答哦?
点赞 回复
分享
发布于 2019-08-17 23:18
您好,请问下,能答对多少算正常😂
点赞 回复
分享
发布于 2019-08-19 16:19
阅文集团
校招火热招聘中
官网直投
您好,请问怎么查询面试进度呢?没有过会不会给通知?
点赞 回复
分享
发布于 2019-08-25 06:31
想知道attention的本质是什么😂
点赞 回复
分享
发布于 2019-08-30 16:11
请问有后续吗
点赞 回复
分享
发布于 2019-08-30 23:51

相关推荐

7 79 评论
分享
牛客网
牛客企业服务