美团机器学习算法面经分享

扫码牛客的内推,大概一周前做的笔试,选择题好好做了,代码0ac,本来以为没我事了,前天收到面试通知,昨天去面了两面,走的时候据说是交叉面,对我来说没差,都是面试。😂
一面,面试官不管问什么模型,都会问一句y,loss,反向传播。。。问到的模型包括lstm cell,GRU cell,crf,fm,lr,word2vec两种模式,xgboost,gbdt,node2vec,及以上大多数模型的loss和反向传播。写的题比较简单,大概是觉得我前边答得太不好了,不好意思为难我了,出了一个判断两个二叉树是否相同,递归可用。
二面,分类问题的loss为什么选交叉熵,MSE可以吗?基尼系数的公式为什么这么写?xgboost和gbdt区别,xgboost好处,语言模型的一些问题和bert,开放式问题:骑手社区的无监督言论怎么归纳出几个主题(主题模型),kmeans等,具体流程怎么设计。写题写了个对一个数组随机排序,每个位置都随机,o(n)。
总体感受:写题比较简单,模型扣的细,细的程度不是理解网上博客写的就可以,而且要看原论文。一面的时候被憋的几乎想拿书包走人了,说的最多的话就是,这个记不清,这个不了解。。。个人感觉不算写题的话,难度比腾讯的前两面要难,约等于三面难度。建议大家深扣细节!上述nlp的内容是因为我做nlp,略参考就可以。

#面经##实习##美团##机器学习##算法工程师#
全部评论
大佬你好,你面经里写的基尼系数的公式为什么这么写?这个能具体讲讲吗,不太理解是怎么问的,谢谢~
点赞 回复
分享
发布于 2019-05-02 16:48
问的好全
点赞 回复
分享
发布于 2019-09-19 14:40
联想
校招火热招聘中
官网直投

相关推荐

5 114 评论
分享
牛客网
牛客企业服务