今天早上11点一面:    一面:机器学习的基础知识   介绍文章内容      代码题:数组实现二叉搜索树   逻辑回归概念,损失函数,优化方法除了梯度下降还有什么   LR损失函数:怎么用最大似然求损失函数   L1和L2的差别:   树:XGboost中正则化项的理解:   还有一些忘了。。       中午接到二面通知,下午四点二面   二面:   聊了比较久的文章内容,比如为什么选用SVM,为什么不用逻辑回归,SVM的核函数选择,为什么不用深度学习(面试官都喜欢问这个2333)    代码:二分查找   L1和L2区别   常见的非监督学习的方法:   研究生生涯最困难的事情:  还...