感谢牛客,已经上岸,360信息流
华为的可能面试的太晚了,现在仍然在池子里(5.20来了offer),360信息流部门发来了offer,还是决定上岸了,顺便记录一下之前的面经吧,持续了一两个月的找实习终于要结束了
我找的都是nlp相关的实习,mark一下
蔚来汽车
kmeans能迭代的数学原理
adam的特点
em算法
lstm参数量
lr为什么要使用sigmoid
dropout
手撕代码:
二维前缀和
最长回文字串的长度
(拿到offer)
腾讯:
腾讯是通过部门直推的,直接三面一起上,感觉有点压力面的感觉
介绍论文以及改进点
lstm能解决rnn什么问题,并通过数学公式推导
相交链表
求数字的平方根
如何在海量数据中快速查找最相似的文本
逆序双向链表
去掉字符串中违法的单括号
(挂掉)
阿里:
阿里被反复捞了三次,都挂在了电话面,大概的面试点有这些:
阿里小蜜:
直接上bert
bert的改进
transform为什么这么好
bert的损失
bert的mask相对于CBOW有什么相同与不同
手撕代码:
写一个multi-head attention(直接懵逼)
阿里优酷(电话面试):
讲一下textcnn
讲一下lstm各个门
文本分类的发展
华为:
印象中具体只问了双向lstm比lstm到底好在哪
360:
大搜部门:
讲一下word2vec
哈夫曼树与负采样
实现哈夫曼树手撕代码
transform 的mask到底有什么作用
lstm门到底那个门更新细胞状态
信息流部门:
大搜hc满了,被信息流捞了
LR推到
如何用word2vec的方式构造sentence2vec
CBOW的损失函数
大概就这些 好多都记不太清了
最后我的经验是:面试算法的同学还是要自己吃透自己的简历 大多数的面试官问题都是出自你的简历
#阿里巴巴##腾讯##360公司##华为##蔚来汽车##算法工程师##面经#