百度 推荐策略 二面加面 校招补招
面试官特别可爱...
自我介绍
写了个快排
项目介绍
分类问题损失函数:交叉熵
L = - [ylogy^+(1-y^)log(1-y^)]
神经网络最后一层的激活函数用什么
——二分类用sigmoid;多分类用softmax;前面用Relu
sigmoid为啥适合二分类 梯度是什么形式
——我都画图解答的...
Relu的形式
AUC了解吗 会计算吗
信号不太好...你再介绍一个项目吧
介绍了一下他们的工作内容
感觉什么都没问就结束了...
#百度##算法工程师##校招##面经#