华为面经

一面:
1.自我介绍
2.项目拷打,项目中印象最深刻的事情,最大的难点是什么?
3.没有八股,面试官超和蔼,反复提醒我不要紧张。
4.手撕代码,求数组的所有全排列。

二面:
1.自我介绍
2.手撕代码,公交车站距离,逆时针和顺时针路线中较短的一个。
3.简要介绍一下项目中最大的难点是什么?
4.简要介绍一下项目中最难的事情是什么?

业务主管面:
1.自我介绍
2.承压能力测试,在专业面试中遇到没有准备过的问题是怎么应对的?
3.每个项目中最难忘的点是什么?(三轮面试项目经历都问得很多)
4.职业规划是怎样的?
5.未来工作的意向地在哪?
6.反问:问了未来部门业务发展方向是怎样的,部门工作氛围是怎样的?
希望能够顺利进入华为,第一轮面试有些磕磕绊绊,后面两轮都还顺利。
全部评论
佬,可以看看简历嘛
点赞 回复 分享
发布于 2024-10-15 11:57 河南
手撕代码是本地IDE吗
点赞 回复 分享
发布于 2024-10-13 22:05 重庆
是每个人都三轮面试,然后最后出一个结果对吗
点赞 回复 分享
发布于 2024-10-13 03:06 安徽
都没问八股嘛~
点赞 回复 分享
发布于 2024-10-13 00:09 陕西
佬可以问一下是面试前几天约的面试吗
点赞 回复 分享
发布于 2024-10-11 15:21 陕西
佬 线上还是线下啊
点赞 回复 分享
发布于 2024-10-10 20:37 江苏
请问你面试结果出来了吗
点赞 回复 分享
发布于 2024-10-10 17:20 江苏
还没有投递华为的学弟学妹,还有机会,HC充足,私聊我
点赞 回复 分享
发布于 2024-10-10 12:07 上海
能请问是哪个部门吗
点赞 回复 分享
发布于 2024-10-10 00:09 重庆

相关推荐

给我面没招了。。。1. 项目拷打2. 详细阐述Transformer的底层原理,并说明其能够替代RNN的核心优势;结合Transformer架构的成熟度,分析Self-Attention机制在多模态对齐任务中是否存在瓶颈,以及在实际业务场景中,是否出现过注意力权重完全偏移的情况。3. 讲解LoRA的技术原理,说明LoRA是否仅能嵌入Linear层;分析LoRA无法在LayerNorm层之后插入的原因,以及该操作会对模型训练稳定性产生哪些具体影响。4. 结合实操经验,说明QLoRA降低训练资源成本的核心逻辑;列举常见的模型量化方式,并解释QLoRA选择NF4与FP16组合而非其他方案的原因,阐述NF4的分布拟合逻辑。5. 针对采用multi-query attention优化后,decoder延迟仍居高不下的问题,分析潜在性能瓶颈;探讨vLLM自带的KV Cache是否会成为推理过程中的负担。6. 分别说明Embedding模型与Rerank模型处理文本语料的核心流程,并结合实际应用场景举例说明。7. 结合过往RAG项目经验,讲解从数据清洗到检索服务上线的完整链路搭建流程,重点说明chunk切分的具体策略。8. 分析当前RAG技术落地的最大瓶颈,并阐述你在项目中采取过哪些优化手段来提升检索召回率(Recall)。9. 针对XX领域大模型的训练工作,说明SFT(监督微调)数据集的构造方法与核心思路。10. 结合LoRA微调实操经历,说明rank值的选择依据;在合并adapter权重的过程中,是否遇到过梯度爆炸问题,以及对应的解决方法。11. 结合你的模型部署相关经验,说明模型参数量与硬件算力需求之间的对应关系(例如不同参数量级模型所需的算力配置标准);以部署一个稀疏率千分之三的235B参数量MOE架构模型为例,估算其所需的算力规模。12. 在搭建RAG知识库时,若需对文档进行动态更新,你采用的是全量嵌入还是增量处理方案?若为增量处理,如何规避新旧文档数据分布不一致导致的检索偏差问题。
点赞 评论 收藏
分享
评论
25
112
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务