蚂蚁金服机器学习实习生一面凉经
楼主妹子985本,海外硕士研一,面了个蚂蚁金服应该又跪了,期待打破一面挂的魔咒!发个面经攒rp!
- 自我介绍:
- 竞赛奖项:
- 无监督学习:
- 深度学习:
- 问是否接触过深度学习,答知道CNN、DNN、RNN,介绍了本科国创毕设项目(硬件CNN框架);
- 问是否是算法改进,答是改进了计算方法
- 传统机器学习:
- 问是否做过传统机器学习项目,答做过一些;
- 问能否选择一个介绍,介绍了HMM模型在游戏AI中应用的项目,具体解释了HMM模型的三类问题以及我们如何将三类问题用在游戏AI的实现上;
- 问是否会降低精度,答不会,我们是基于HMM的性质做的,不会对结果有影响;
- 问阈值是怎么调节的,答经验调参(尬笑);
- 问怎么衡量模型优劣,答testing error和F1 Score,再问讲一下F1 score的计算方法,答出来了,问还有其他方法么,答lossfunction;
- 问AUC、ROC曲线了解吗,答听过没用过(GG),然后面试官提了一个case说这两个曲线的应用场景;
- 问随机森林和GBDT的区别,答一个是bagging一个boosting,问random forest随机在哪里,答随机在每个节点的特征选择、random sampling等;
- 问了解XGBOOST吗,讲一下它和GBDT的区别,我只答上了一个机器学习方法一个工程实现,贴一个正确答案在这里:
- 部门介绍和自由提问:
姓名、学校、学历、毕业时间、实习经历、项目经历、竞赛经历、可实习时间
问参加过什么竞赛,答数模二等 + 信安三等
是否了解图相关算法,如社群发现,答不了解
(1)GBDT是机器学习算法,XGBOOST是该算法的工程实现;
(2)在使用CART作为基分类器时,XGBOOST显式地加入了正则项来控制模型的复杂度,有利于防止过拟合,从而提高模型的泛化能力;
(3)GBDT在模型训练时只使用了代价函数的一阶导数信息,XGBOOST对代价函数进行二阶泰勒展开,可以同时使用一阶和二阶导数;
(4)传统的GBDT采用CART作为基分类器,XGBOOST支持多种类型的基分类器,比如线性分类器;
(5)传统的GBDT在每轮迭代时使用全部的数据,XGBOOST则采用了与随机森林相似的策略,支持对数据进行采样;
(6)传统的GBDT没有设计对缺失值进行处理,XGBOOST能够自动学习出缺失值的处理策略。
问看中什么能力,答基础、经验、问题解决能力。