阿里 机器学习算法岗 一面

感觉自己有些没有回答全面,欢迎大神们赐教,感谢。

  1. FM 和 LR 最大的差异是什么?
  2. DeepFM 相比 FM 做了什么样的提升?
  3. DeepFM 相比 FM 是学到了一些高阶的特征组合,那用LR能不能实现相似的提升?
  4. 为什么CTR预估不直接用 LR 做?
  5. LR 相比 GBDT XGBoost 有哪些不足?
  6. 如何解决欠拟合?
  7. 假设一定要用LR 做 CTR预估,怎样做才能实现比较好的效果?
    (答:人工特征工程,做交叉特征。)
  8. 为什么要做交叉特征呢?特征组合的好处是什么?
  9. 数值编码、特征离散化的作用?
  10. 特征离散化的方法。
  11. 离群点对于LR的影响。
  12. 训练样本分布和测试样本分布不一致,应该怎样处理?
  13. 假设训练样本分布和测试样本分布不一致,测试样本有一些扰动,会遇到怎样的问题?
  14. 如何结果过拟合?
  15. L1正则和L2正则的差异
  16. DeepWalk的原理。
  17. DeepWalk 重新生成向量的目的是什么?
  18. CBOW与skip-gram区别?
  19. skip-gram 使用 softmax会遇到哪些问题?
  20. 神经网络中的Dropout与机器学习的哪种方法类似?
  21. 为什么神经网络会有梯度消失和梯度爆炸的问题,怎样解决?
  22. 机器学习 与 神经网络的优化算法?
  23. SGD的优缺点。
  24. 介绍 Adam 优化算法
全部评论

相关推荐

bg双非本科,方向是嵌入式。这次秋招一共拿到了 8 个 offer,最高年包 40w,中间也有一段在海康的实习经历,还有几次国家级竞赛。写这篇不是想证明什么,只是想把自己走过的这条路,尽量讲清楚一点,给同样背景的人一个参考。一、我一开始也很迷茫刚决定走嵌入式的时候,其实并没有一个特别清晰的规划。网上的信息很零散,有人说一定要懂底层,有人说项目更重要,也有人建议直接转方向。很多时候都是在怀疑:1.自己这种背景到底有没有机会2.现在学的东西到底有没有用3.是不是已经开始晚了这些问题,我当时一个都没答案。二、现在回头看,我主要做对了这几件事第一,方向尽早确定,但不把自己锁死。我比较早就确定了嵌入式这个大方向,但具体做哪一块,是在项目、竞赛和实习中慢慢调整的,而不是一开始就给自己下结论。第二,用项目和竞赛去“证明能力”,而不是堆技术名词。我不会刻意追求学得多全面,而是确保自己参与的每个项目,都能讲清楚:我负责了什么、遇到了什么问题、最后是怎么解决的。第三,尽早接触真实的工程环境。在海康实习的那段时间,对我触动挺大的。我开始意识到,企业更看重的是代码结构、逻辑清晰度,以及你能不能把事情说清楚,而不只是会不会某个知识点。第四,把秋招当成一个需要长期迭代的过程。简历不是一次写完的,面试表现也不是一次就到位的。我会在每次面试后复盘哪些问题没答好,再针对性补。三、我踩过的一些坑现在看也挺典型的:1.一开始在底层细节上纠结太久,投入产出比不高2.做过项目,但前期不会总结,导致面试表达吃亏3.早期有点害怕面试,准备不充分就去投这些弯路走过之后,才慢慢找到节奏。四、给和我背景相似的人一点建议如果你也是双非,准备走嵌入式,我觉得有几件事挺重要的:1.不用等“准备得差不多了”再投2.项目一定要能讲清楚,而不是做完就算3.不要只盯着技术,多关注表达和逻辑很多时候,差的不是能力,而是呈现方式。五、写在最后这篇总结不是标准答案,只是我个人的一次复盘。后面我会陆续把自己在嵌入式学习、竞赛、实习和秋招中的一些真实经验拆开来讲,希望能对后来的人有点帮助。如果你正好也在这条路上,希望你能少走一点弯路。
点赞 评论 收藏
分享
2025-11-26 09:37
山西大学 测试工程师
我要娶个什么名:学长你电脑闹鬼了
点赞 评论 收藏
分享
评论
点赞
7
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务