面试实录、评级:AI方向

本文收集了笔者过去半年的面试经历,以及对面试官、公司的评价。评价完全主观,大家图一乐就行:高评级的不一定真好,低评级的也未必是公司/面试官不行,更多可能是我自己太菜。以下是一些基本信息,供大家参考:

学校:美本在读 26 届,QS Top 100,计算机名校,计算机科学专业
投递岗位:AI 工程师、机器学习工程师、Python相关(均为实习)
技术栈:Python,RAG,LLM,AI Agent,全栈网页开发,数据库等
论文:无,有初创实习经验(投简历时),学术菜狗(不过 GPA 还挺好看,公司一般不在意)

我总结的 面试体验好 的标准大概是:

  • 面试官是否给与你充分的尊重(极其重要)
  • 面试流程是否清晰
  • 反问环节是否顺畅
  • 面试气氛是否轻松
  • 是否拿到 Offer(体验和结果不挂钩,没 Offer 大多是我自己没发挥好)

评级分为:顶级、不错、一般、捞
以下公司不分先后,想到哪写哪。

小米

  • 岗位:前端开发
  • 评级:不错
  • Offer:无
  • 描述:阴差阳错投前端,直接进入面试(完全没准备)。流程:自我介绍 -> 项目细节 -> 手撕代码 -> 反问。面试官态度很好,发现我前端不会后,把题目改成了 Python 算法题。整体体验不错,交流流畅,面试官全程开摄像头且很认真。

字节

  • 岗位:Python 研发(RAG方向,岗位名字记不清了)
  • 评级:顶级
  • Offer:无
  • 描述:交流很舒服,流程还是标准自我介绍 -> 项目 -> 手撕代码 -> 反问。没有八股文。题目不难但没做完,面试官给了不少提示。反问环节聊得很开心。

华为

  • 岗位:AI 工程师
  • 评级:顶级
  • Offer:有
  • 描述:体验非常好。全程没有八股,项目深挖细节到极致,甚至超时。手撕代码是 backtracking,有几个 case 没过但思路对了,面试官认可。主管面试也轻松愉快,主要围绕项目细节和可能遇到的难点展开,没有八股和手撕代码。

冰智科技

  • 岗位:机器学习工程师
  • 评级:捞
  • Offer:如有
  • 描述:最差体验之一。直接和所谓的“创始人”面试,对方态度极差。回答问题后,他总是装懂并轻蔑总结成“没啥难度”,甚至怀疑我的简历真实性。最后给的“无薪线上实习 -> 再转正”安排被我当场怼回。评价:捞。

MiniMax

  • 岗位:AI 工程师
  • 评级:一般
  • Offer:无
  • 描述:整体中规中矩。唯一槽点是做手撕代码时,面试官直接关摄像头走了,十分钟后才回来。

文远知行

  • 岗位:AI 工程师
  • 评级:不错
  • Offer:无
  • 描述:交流有点乌龙,HR把“会一点 C++”传成了“精通 C++”。和面试官解释后,临时把题目改成 Python。整体面试体验还不错。

面壁智能

  • 岗位:Python 研发(具体岗位忘了)
  • 评级:不错
  • Offer:有
  • 描述:氛围轻松愉快,流程标准,无八股。有一道手撕代码题,难度不大,面试官要求先讲思路再实现,这个过程很加分,体验很好。

字节跳动秋招

  • 岗位:算法
  • 评级:不错
  • Offer:不清楚
  • 描述:正在补充...

持续更新中

#面试体验感最好的是哪家?##哪些公司面试官让你印象深刻?##如何判断面试是否凉了##字节求职进展汇总##秋招#
全部评论
老哥华为面试的手撕是啥形式啊,线下让你当面敲代码吗
点赞 回复 分享
发布于 09-16 17:24 北京
直接干 看能力
点赞 回复 分享
发布于 10-07 19:55 江苏
耐面王
点赞 回复 分享
发布于 09-21 17:55 北京

相关推荐

1.实习介绍2. Lora 原理(核心是低秩分解:将原始权重更新近似为两个低秩矩阵乘积,减少参数量,保留主导方向,训练高效)3.了解 DeepSpeed 吗,ZeRO -1, ZeRO -2和 ZeRO3分别做了哪些优化(1优化优化器状态,2优化梯度,3切分参数,全面节省显存)4. Qwen的模型结构是怎么样的,相比于 LLaMA,DeepSeek 有什么区别(Qwen采用GQA+SwiGLU+RMSNorm,和LLaMA架构非常相似,差异在训练数据和tokenizer中文支持更好;DeepSeek只用MoE/MLA架构,Qwen系列主要是Dense模型)5.怎么缓解大模型的幻觉问题(RAG,RLHF对齐,事实监督)6.大模型的 MoE 结构相比于 Dense 结构训练的难点在什么地方,DeepSeekMoE为什么效果好,有什么值得我们借鉴创新点(MoE面临负载不均衡、训练不稳定问题;DeepSeekMoE通过细粒度专家和共享专家设计提升稳定性和效果)7.知道FP16和BF16有什么区别吗,包括FP32和INT8这些,在训练大模型的时候,应该怎么选择(FP16精度高但易溢出,BF16动态范围大;训练常用BF16混合精度,推理用INT8量化加速)8.讲-下 RLHF 的流程,写-下 PPO和 DPO的 Loss表达式(训练奖励模型后用PPO/DPO优化策略:PPO Loss: policy ratio + KL 约束/ DPO Loss: logit preference diff + sigmoid binary loss)9.对于超长上下文业界一般是怎么做的,你知道 Qwen是怎么做的吗(业界常用ROPE 变体/滑动窗口注意力/稀疏注意力等:Qwen使用YaRN和窗口注意力扩展上下文)10.开放题:你觉得目前大模型的上限在哪里(推理能力、长期记忆、具身交互和能耗效率,需要架构创新和多模态融合突破)11.代码:152.乘积最大子数组
查看9道真题和解析
点赞 评论 收藏
分享
评论
4
2
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务