字节offer

感觉字节也挺逆天的,听过暑期实习转秋招流程的,但是居然还有秋招转实习流程的,面完字节三面后,hr居然和我说给我发实习offer,每次面试的邮件标题都是后端开发工程师,搞得我都不知道到底是什么个情况了,都不知道该不该接这个offer,连续两次字节三面,一次三面挂了,一次过了却和我说发实习offer,hr说话含含糊糊的而且一直逃避我的问题,需要避坑吗😭😭
#字节# #秋招# #不给转正的实习,你还去吗#
全部评论
估计想让你去实习看看水平再考虑让你转正。不行就直接说没hc让你滚蛋😂字节老熟练了这一套
14 回复 分享
发布于 2024-08-27 23:05 上海
我面了三次,暑期一次三面挂一次二面挂,秋招正式批三面结束后告诉我没通过,但可以转实习直达hr面,之后还是要走转正流程
2 回复 分享
发布于 2024-08-28 02:18 浙江
哥们,你是三面之后多久hr面的,我投的别人内推的链接,然后上次三面的时候面试官说了一句感谢投递实习,我当时就不想面了,但是又没敢问,然后现在还没约hr面
1 回复 分享
发布于 2024-08-28 08:20 四川
逆天
1 回复 分享
发布于 2024-08-27 22:40 北京
佬,是哪个base啊
点赞 回复 分享
发布于 2024-09-13 14:50 陕西
就当面日常实习了,就当毕业以前实习也不错,毕竟是字节
点赞 回复 分享
发布于 2024-08-31 19:34 山西
好垃圾的公司,招人要求那么高,自己做事这么不负责任
点赞 回复 分享
发布于 2024-08-30 18:42 陕西
字节tm我后端面试挂了HR直接给我测开了
点赞 回复 分享
发布于 2024-08-29 18:50 山西
哥们你是抖音直播秋招?在哪个城市呀,可以出个面经吗
点赞 回复 分享
发布于 2024-08-29 00:27 北京
不应该是发意向,然后要求提前实习嘛?
点赞 回复 分享
发布于 2024-08-28 14:14 浙江
hr的微信昵称不会也是M开头吧。
点赞 回复 分享
发布于 2024-08-28 14:13 上海
没事老哥 我也一样 估计是没达到要求吧
点赞 回复 分享
发布于 2024-08-28 11:01 广东
哪个部门呀,佬
点赞 回复 分享
发布于 2024-08-28 10:13 浙江
逆天
点赞 回复 分享
发布于 2024-08-27 23:15 广东

相关推荐

02-20 14:05
已编辑
门头沟学院 前端工程师
记录一下我和字节的面试过程。最初约的1.13一面。结果1.12面完懂车帝后被压力暴了。觉得自己暂时没能力面字节,加上字节存在脏面评的情况。因此联系字节hr想要取消面试。HR对我一顿奶,说字节考的很基础啥的,以及现在的竞争比年后会小很多之类的,让我好好准备,给我推迟两周在面试。1.27一面。面试时长1h左右。晚上通知二面。1.30二面。面试时长1h左右。晚上通知三面。二面自我感觉比较一般没想到能通过的。八股和场景题有点没回答好,三道手撕都撕出来了。2.5三面。面试时长快1.5h。本来贼紧张,准备了好久。面试官一上来就说前两轮面试官对我评价不错,打消了我好多顾虑。聊了八股,场景题,实习经历,以及最后拷打了很久的智力题,感觉拷打了快一个小时。直接被问的面红耳赤。2.5继续约了hr面。15min。hr语速特别快,我不自觉更上她的速度,自我介绍比平时快了不少。最后告知我offer需要审批3-5天。能不能审批下来还不一定。于是我开始等待,2.9hr告知我offer没有审批下来。问原因,不告知。自我感觉是学历问题被横向了🥲既然如此为什么给面试机会,真的很难蚌。整个面试过程的心情真的是跌宕起伏。从最初的紧张不自信,到一面通过后的意外,甚至二面通过后的不可思议,但我深知我不敢倾注过多的期望,因此怀揣着未知和一丝丝侥幸去竭尽所能的准备三面。最后三面通过后仿佛得到了肯定,我也可以做到。等待offer审批时,是我这几年来心气最高的时候了。好像我马上就可以去实习了,从双非去字节跳动本就是一件很了不起的事情。虽然我也在xhs看到过offer审批失败的情况,但是我不敢去想,我祈祷我是幸运的那个人。可惜结果还是把我打回了现实,好像一切又回归平常,什么都没发生过,我的心绪好像也没有很波动,因为我深知,能通过实习是我的幸运,没通过也是我的宿命,我怪不了任何人,只怪自己调剂到了双非,而这个世界又是唯学历论的。过年期间我好像对任何事情都提不起兴趣来,好像对互联网这个行业都有点失望了,更多的是对自己的失望和怀疑,因为好像努力和没努力,结果都一样。以此记录我的找实习过程,共勉。
点赞 评论 收藏
分享
祝大家都能拿到满意的Offer!1. 项目拷打2. 详细阐述Transformer的底层原理,并说明其能够替代RNN的核心优势;结合Transformer架构的成熟度,分析Self-Attention机制在多模态对齐任务中是否存在瓶颈,以及在实际业务场景中,是否出现过注意力权重完全偏移的情况。3. 讲解LoRA的技术原理,说明LoRA是否仅能嵌入Linear层;分析LoRA无法在LayerNorm层之后插入的原因,以及该操作会对模型训练稳定性产生哪些具体影响。4. 结合实操经验,说明QLoRA降低训练资源成本的核心逻辑;列举常见的模型量化方式,并解释QLoRA选择NF4与FP16组合而非其他方案的原因,阐述NF4的分布拟合逻辑。5. 针对采用multi-query attention优化后,decoder延迟仍居高不下的问题,分析潜在性能瓶颈;探讨vLLM自带的KV Cache是否会成为推理过程中的负担。6. 分别说明Embedding模型与Rerank模型处理文本语料的核心流程,并结合实际应用场景举例说明。7. 结合过往RAG项目经验,讲解从数据清洗到检索服务上线的完整链路搭建流程,重点说明chunk切分的具体策略。8. 分析当前RAG技术落地的最大瓶颈,并阐述你在项目中采取过哪些优化手段来提升检索召回率(Recall)。9. 针对XX领域大模型的训练工作,说明SFT(监督微调)数据集的构造方法与核心思路。10. 结合LoRA微调实操经历,说明rank值的选择依据;在合并adapter权重的过程中,是否遇到过梯度爆炸问题,以及对应的解决方法。11. 结合你的模型部署相关经验,说明模型参数量与硬件算力需求之间的对应关系(例如不同参数量级模型所需的算力配置标准);以部署一个稀疏率千分之三的235B参数量MOE架构模型为例,估算其所需的算力规模。12. 在搭建RAG知识库时,若需对文档进行动态更新,你采用的是全量嵌入还是增量处理方案?若为增量处理,如何规避新旧文档数据分布不一致导致的检索偏差问题。13. 针对机械臂动作态融合相关工作,说明数据融合的具体实现方案,以及对比实验的设计思路与评估指标。
查看12道真题和解析
点赞 评论 收藏
分享
评论
5
3
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务