历经四面收到字节跳动意向书!附简短面筋

字节的面试难度真的挺高的,是我最遇到最艰难的🤧🤧,但是流程很快,8.31一面,9.2二面,9.7三面,9.10四面(上半,面试官临时有会议重新约时间),9.14四面(下半,接着上次继续),9.15 oc+意向书,面试官素质高,整体体验很赞!
后面更新一波面筋,记录一些我认为比较困难的问题🤣,面试官都很好,问题答不出来或者做不出来,都会耐心引导提示😣

8.31 一面
八股+项目+算法题+反问(八股问的很多,只记录些印象深刻的问题)
(1)ROC曲线和PR曲线的区别?适用场景?AUC的意义?
(2)优化方法有哪些?牛顿法和拟牛顿法?拟牛顿法怎么做的?
(3)随机森林和GBDT哪个树的深度更深?为什么?
(4)朴素贝叶斯分类怎么做的?为什么朴素?
(5)coding:判断二叉树是否对称

9.2 二面(交叉面)
八股+算法题+反问(同上一面,八股问的很多,当时脑子已经嗡嗡响了,也只记得回答比较困难的问题)
(1)SVM的优化算法SMO是怎么做的?怎么选择每次迭代中两个优化变量?
(2)最早解决梯度消失问题的方法是什么?(不知道,后来也没查到😥
(3)推荐模型知道哪些(LR,FM,Wide&Deep,DeepFM)?有什么区别?FTRL优化算法?
(4)coding:第K大个数(快排思路)

9.7 三面
项目+算法题+反问
coding:
(1)手写Softmax
(2)卷积尺寸变化的计算,参数量,计算量
(3)给定二叉树前序和中序遍历,输出后序遍历;用到哈希表,提问哈希表和字典的实现用到的数据结构

9.10+9.14 四面(交叉面)
算法题+项目+反问
coding:
(1)投掷硬币直到出现“正正反”停止,第K次停止的概率(DP,以连续两次的正反面情况为状态进行推导更新,一开始并没有想到,说的思路是记录三次的情况,面试官提示说只用两次是不是就可以了,才做出来)
(2)Sigmoid(x)=0.2用梯度下降求解x
(3)设计逻辑回归LR模型(实现类),特征为离散的,利用Adagrad优化方法,能够实现预测样本和增量更新参数的功能(实现预测和更新两个函数即可,需要对特征做编码处理),提问特征维度过高怎么办?(降维,哈希映射处理)

#秋招##字节跳动##算法工程师#
全部评论
给师姐赞一下
点赞 回复
分享
发布于 2021-09-15 11:27

相关推荐

头像
不愿透露姓名的神秘牛友
03-13 14:57
点赞 评论 收藏
转发
点赞 18 评论
分享
牛客网
牛客企业服务