百度nlp算法面经(一)

1.自我介绍

2.项目介绍和深挖

3.bert/t5的区别

4.bert参数量计算

5.code(最大正向匹配)

6.反问环节(共1小时20分钟)

这是笔者实习参加的第一场面试,主要对项目问的比较深,面试官没听明白的地方都要求在纸上画和手推。#实习##面经##百度##快手##字节##阿里##腾讯#
全部评论
最大正向匹配是啥呀
点赞 回复 分享
发布于 2024-04-18 14:08 北京
就这么点吗……
点赞 回复 分享
发布于 2024-02-10 18:02 河北
时间这么长吗?为啥我就三四十分钟
点赞 回复 分享
发布于 2024-01-06 16:46 山西
什么项目这么细
点赞 回复 分享
发布于 2024-01-06 01:03 广东

相关推荐

1️⃣抖音一面1、聊项目。2、AUC的两种公式是?你能证明这两种等价的吗?3、BERT-CRF中,为什么要加CRF?好处是?4、self-attention为什么要用QKV三个矩阵,不用有什么问题?有没有哪个模型的Q和K矩阵是一样的?5、reinforce属于on-policy还是off-policy?为什么?6、reinforce带上baseline好处是?reinforce的loss写一下?7、策略梯度会推导吗?简单写一下?8、代码题(代码题一般别着急写,先跟面试官说下思路,确定了再写):lc 46,全排列(lc表示leetcode,下同)。lc 73,矩阵置0。2️⃣抖音二面1、介绍项目。2、知识蒸馏有哪几种?你觉得哪种效果最好?3、nlp的数据增强方法,主要有哪几种?每一种举个例子?4、分类的损失函数为什么是交叉熵而不是mse?5、BERT对输入文本的长度有什么限制,为什么要限制长度呢?6、BigBird里面有哪几种注意力机制?相比原始transformer的self-attention的优势?7、场景题:如何根据拼多多的商品数量,估计淘宝的商品数量?8、给出emb_size, max_len, vocab_size, ff_inner_size,num_heads, 12层,求BERT参数量。9、代码题:n皇后问题。3️⃣抖音三面‍1、简单聊项目。2、CRF和HMM区别?CRF为什么比HMM效果好?3、如果BERT词表很大,比如vocab_size达到几百万,怎么办?4、快速手写一些transformer的mha(多头注意力),伪代码意思一下就行。5、为什么对比学习中,temperature很小,而知识蒸馏的temperature比较大?6、你觉得在抖音买东西,和淘宝、拼多多他们的区别是?(我没在抖音买过,就只能现场编。)7、你最近看到过哪些paper?简单介绍下?8、你觉得自己有那些优缺点?平时喜欢怎么缓解压力?📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
查看26道真题和解析
点赞 评论 收藏
分享
评论
13
33
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务