快手二面、三面、HR面

最近无聊便想着那之前没有写完的面经跟大家分享一下,希望能帮上大家,目前也没有太多精力继续面试了,姑且打算结束秋招。

二面

二面的时间我记得好像是9.9,因为一面是9.3。

目前我就记得二面的时候,面试要我打开我的项目然后共享给他挨着讲逻辑,讲思路以及尝试优化的方法等,这个是重点,最后的手撕题目的话有点忘记了,我记得好像是hot100或者150的题目,大家多刷刷还是有用的。

三面

三面应该是leader吧,体验很不错,面试时间是:9.17

自我介绍之后是对一些基础的简单提问,然后之后就是一些算法的思想啊,或者针对简历上写的东西的一些提问。还有部分是关于系统设计的这一类的。

HR面

HR面时间是:9.25日

就是一些常规的HR面的提问吧,没什么特别的

总结

整体来说面试体验还可以吧,不过就是一直泡池子,也不知道能不能出来,希望快点给个痛快吧,由于前段时间事情很多,状态也不好,所以只记得这么些东西了,希望能给大家提供一点参考。

#苦尽甘来时,再讲来时路#
全部评论
现在呢 oc了吗佬
点赞 回复 分享
发布于 2025-11-28 11:05 北京
最后好多检漏的,说不定你就有好消息
点赞 回复 分享
发布于 2025-11-07 21:25 陕西
oc了吗
点赞 回复 分享
发布于 2025-11-07 15:05 上海

相关推荐

继续来分享下最近的面经~欢迎友好讨论,信息共享1. Transformer 为什么能替代 RNN 成为大模型主流架构?2. Self-Attention 的计算过程是什么,时间复杂度为什么高?3. Multi-Head Attention 的作用是什么,为什么要分多个头?4. 位置编码为什么必要,绝对位置编码和相对位置编码有什么区别?5. 什么是 KV Cache,它为什么能显著提升推理效率?6. Prefix Cache 和 KV Cache 有什么区别,分别适合什么场景?7. 为什么大模型推理通常是 memory bound,而不是 compute bound?8. Batch 推理和单请求推理的吞吐与延迟 tradeoff 是什么?9. Continuous Batching 解决了什么问题,为什么对推理服务很重要?10. Prefill 和 Decode 两个阶段的性能瓶颈分别在哪里?11. 大模型采样里的 temperature、top-k、top-p 分别会怎样影响输出?12. 贪心解码、束搜索、随机采样分别适合什么生成任务?13. 重复惩罚和长度惩罚分别是为了解决什么问题?14. 为什么模型有时会出现“复读机”现象,通常怎么缓解?15. 量化是什么,INT8、INT4、FP16 的核心区别是什么?16. 推理量化会对模型效果造成什么影响,如何评估是否值得量化?17. 张量并行、流水线并行、数据并行分别适合哪个阶段?18. 单机多卡部署大模型时,通信开销主要来自哪里?19. 为什么 GPU 显存是大模型部署的核心约束之一?20. 模型参数量、上下文长度、并发数三者之间是什么关系?21. 什么是 MoE 模型,为什么它能在参数规模很大时控制推理成本?
查看21道真题和解析
点赞 评论 收藏
分享
评论
3
2
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务