NLP面经回馈

虽然还没收获满意的offer,不过后面也没什么面试了,所以来回馈下牛客(最近发帖比较多,我怕后面懒下来就不发了,所以趁现在赶紧发出来),放一些秋招面试的面试题,主要是nlp方向。有些公司当初忘了记了(阿里、考拉和依图)记了或者觉得没什么可记的(比如华为和vivo),记下来的如下:

  • 网易互娱 - ailab - 人工智能研究工程师

一面50分钟

  1. 自我介绍
  2. 介绍腾讯实习内容
  3. Attention机制的原理
  4. 介绍艾耕实习内容
  5. Fasttext原理,相比于word2vec有什么优势
  6. 文本分类除了CNN和RNN还知道哪些方法?
  7. BILSTM + CRF模型的原理
  8. 多任务学习和对抗网络了解不
  9. 给定两个命名实体识别任务,一个任务数据量足够,另外一个数据量很少,可以怎么做
  10. 隐马尔可夫模型了解吗,和CRF的区别
  11. word2vec是有监督的还是无监督的?
  12. 思考题:有A(红)B(蓝)两瓶墨水,从A中取一勺倒到B中,混匀后,再从B中取等量墨水,倒到A中。问,是A中蓝墨水多还是B中红墨水多?

二面55分钟

  1. 自我介绍
  2. 摘要抽取怎么做的
  3. 命名实体的应用场景,泛化能力怎么样
  4. CRF模型说一下,优化目标是什么,怎么训练的?
  5. CRF和HMM的区别
  6. HMM做了哪些独立性假设
  7. HMM的训练方法
  8. CRF的预测方法,维特比算法的过程
  9. 画Transformer的结构图,讲一下原理,为什么self-attention可以替代seq2seq
  10. 机器翻译的Attention机制,里面的q,k,v分别代表什么
  11. Fasttext原理,cbow和skipgram的区别,分层softmax和負采样,負采样的采样原理,为什么要这样采样,Fasttext哈希规则,怎么把语义相近的词哈希到一个桶里。
  12. 讲一下腾讯的实习
  13. 模型怎么实现的,有没有优化矩阵的运算
  14. 为什么要用Fasttext做文本分类,是因为训练快还是预测快
  15. 推导lr
  16. 智力题:蓄水池采样
  • 网易云音乐 - nlp算法工程师

一面50分钟

  1. 自我介绍
  2. 讲一下随机森林,GBDT,XGBoost
  3. XGBoost相比于GBDT有哪些改进
  4. Adaboost和XGBoost的区别
  5. Adaboost和XGBoost是怎么进行预测的
  6. 讲一下Textcnn的运算过程
  7. 文本分类的评价指标
  8. 讲一下AUC
  9. 过拟合的解决方法
  10. 稳定和非稳定的排序算法有哪些
  11. 二分查找递归和非递归的时间和空间复杂度
  12. 手写冒泡排序,写完问这个程序要上线还需要考虑哪些东西

二面30分钟

劝退

  • 拼多多 - 算法工程师

一面75分钟

  1. 全程讲实习
  2. LDA的词表示和word2vec的词表示有什么区别;
  3. Fasttext 原理,为什么用skipgram不用cbow,負采样怎么做到,公式是什么?
  4. 画Transform结构图
  5. 代码题:给定字符串 s ,求与 s 编辑距离为2的字符串集合。

二面45分钟

  1. 全程讲实习…
  2. 代码题:一个圆被分成M个扇形,一共有N种颜色,相邻扇形不同色,一共有几种涂法?

三面hr

  1. 还在面哪些公司
  2. 有offer了吗
  3. 最理想的公司是哪?
  4. 选择offer最看重哪些因素
  5. 我们公司加班很多,你怎么看
  6. 女朋友去哪?(并没问是否单身就直接问了这个问题)
  7. 期望薪资多少?
  • 追一科技 - 自然语言处理工程师

一面50分钟

  1. 讲实习
  2. 为什么Attention的结果和TextCNN的结果相差不大(不太明白什么意思,就讲了下两者对信息提取范围大小的区别)
  3. Fasttext和word2vec的区别
  4. Fasttext怎么做分类的
  5. 词向量用什么训练的,维度多大
  6. XGBoost和随机森林的区别
  7. XGBoost相对于GBDT的区别
  8. XGBoost工程方面的改进有哪些?
  9. XGBoost和随机森林的特征重要性是怎么计算的?
  10. 输入补全可以用哪个数据结构来做?(字典树)
  11. 假如有10亿条搜索请求,怎么找出最热的前10条?
  12. 问问题得到的信息:上海那边的部门主要是做金融保险业的定制化的智能客服,偏工程方向。主要工作内容有客服系统开发、知识图谱搭建、三元组抽取等,基本上会用到所有的NLP知识。。。
  13. 补充:梯度消失和梯度爆炸的原因,为什么rnn比cnn和全连接层神经网络更容易发生梯度消失或爆炸
  14. 补充:怎么判断过拟合,怎么防止过拟合,说一下dropout

二面30分钟

聊实习

  • 百度 - 算法工程师

一面60分钟

  1. 讲项目
  2. 如果再给一次机会,你觉得这个项目还有什么可以改进的点?
  3. 代码题:二分查找
  4. 代码题:旋转数组的二分查找
  5. 代码题:给定长度为n的数组,求所有可能长度为m的排列组合的情况

二面60分钟

  1. 讲项目
  2. 讲fasttext,词向量,文本分类原理
  3. 文本分类CNN,LSTM和Attention的区别
  4. 代码题:有n枚硬币,每次从左边或右边拿一枚,一共拿m次,求能拿到的最高价值

三面60分钟

经理面

  1. 讲项目
  2. 讲比赛,现在来看有什么可以改进的点
  3. 智力题:圆盘涂色问题
  4. 一些hr题
  • 英语流利说

一面20分钟

  1. 实验室方向
  2. 详细讲一下Transformer模型;transformer中句子的encoder表示是什么;怎么加入词序信息的。
  3. 讲一下BLEU;
  4. 怎么用数据处理的trick提升了NER的表现
  5. 摘要抽取可读性问题怎么回事?

二面60分钟

  1. 手撕代码:二叉搜索树转有序双向链表,要求不能创建新的节点
  2. 做过的nlp任务中,哪个任务最难?你觉得有哪些可以改进的点,怎么改进?
  3. 摘要生成怎么做的?
  4. 讲一下SVM
  5. 概率图模型,有向图模型和无向图模型分别作了哪些假设?CRF的训练目标是什么?
  6. BILSTM+CRF的训练目标?状态转移矩阵是joint learn的吗?维度是多少?
  7. 维特比算法的时间复杂度
  8. LSTM相比于传统RNN解决了什么问题?怎么解决的?
  9. Attention模型和CNN 的区别?
  • 欢聚时代

一面40分钟

  1. 讲一下tag提取怎么做的,讲一下LDA,讲一下隐狄利克雷分布,里面有个辛普森采样了解吗
  2. 讲事件分类。数据有多少,样本不平衡怎么解决的,CNN用在文本里和用在图像里有什么区别,用在文本里时卷积核的宽度代表什么,你怎么选的,为什么要这么选?CNN和LSTM都可以用于分类,两者用于分类有什么区别?说一下Attention,Attention有哪些变种,为什么Attention模型的F指标还比不上作为baseline的textCNN?最后为什么选择Attention模型?词向量用什么训练的,数据量有多少,怎么评价词向量的质量的?词向量的维度是多少,为什么要选这个维度?文本分类中的多义词问题可以怎么解决?
  3. 讲讲CRF。CRF和HMM的区别,从有向无向图的角度呢?从其他角度呢?。CRF和深度学习的结合还知道哪些?
  4. 讲讲python的垃圾回收机制,讲讲装饰器
#面经##网易有道##拼多多##欢聚集团##流利说##算法工程师##秋招#
全部评论
想问下大佬艾耕科技的情况,我可能要去实习
2 回复
分享
发布于 2019-04-14 00:35
想请问下大佬当时进艾耕科技实习的笔试和面试的情况,不胜感激。
点赞 回复
分享
发布于 2019-04-19 20:23
春招专场
校招火热招聘中
官网直投
大佬最后去了哪家公司?
1 回复
分享
发布于 2019-07-13 15:36
LDA都聊到吉布森采样了。不愧是zju大佬。随便问一下大佬。eigen科技在杭州好吗?
点赞 回复
分享
发布于 2018-10-17 14:11
互娱两面竟然都没让你手撕leetcode hard题,我看到代码题瑟瑟发抖
点赞 回复
分享
发布于 2018-10-17 14:59
😂😂😂这也太难了吧。。。transformer问到我肯定一脸懵逼。。概率图模型那边也不熟。。
点赞 回复
分享
发布于 2018-10-18 00:24
Attention做文本分类那个是HAN吗
点赞 回复
分享
发布于 2018-10-24 20:39
活捉一枚博士大佬
点赞 回复
分享
发布于 2018-10-29 23:45

相关推荐

听说写点面经能攒人品,赶紧来一波。滴滴两次技术面,没有hr面。第一次技术面问了transformer和bert的基础知识。先是问了知道transformer的架构如何设计的么?我答理解的。遂让我介绍下transformer的block的结构,我巴拉巴拉,然后继续问编码器和解码器的细节,编码器的position是用的什么函数,解码器和编码器的不同之处,解码器mask是怎么设计的。有的我答出来了,有的确实忘了,比如position的函数我只回答说记得是用了两个三角函数。然后又问了bert的细节,bert是怎么设计的,我答把transformer的编码器拿过来,遂问bert的编码器和transformer的编码器有什么不同,答embedding有点不同,被追问,我说除了加了position还多加了一个,但实在想不起来了,道了个歉。然后继续被追问除了embedding,还有么,想了想,说损失函数不同,除了MLM还加了个前后句子关系判断。然后被拷打了一下项目,让做题。手撕了一道simple的算法题,两数之和,秒了。然后又被追问三数之和怎么办,我讲了下在两数之和基础上的思路,被说能不能优化一下时间复杂度,提醒我可以用二分,但本人实在太笨,没想出来,被面试官安慰说没事。技术一面结束当天就约了二面。二面的技术官没考算法,先是拷打了我的项目,然后给了道算术题。这道题是个打车情景题,半径为1km的圆内接到圆心(用户)的单子的平均距离。昨天刚接到通知,在走入职流程了,让我等两天,等hr加我。希望接下来没啥其他岔子。
点赞 评论 收藏
转发
29 386 评论
分享
牛客网
牛客企业服务