【感知算法面经一】旷视迈驰感知算法面经

🌈 持续分享自动驾驶算法相关技术干货内容,新闻资讯,大厂实习和秋招准备思路以及算法岗求职面经

💫 自动驾驶感知算法实习、秋招面经合集可看智驾感知算法求职面经(答案版)专栏

旷视迈驰自动驾驶感知算法实习面经》

美团自动车配送部感知算法实习面经》

小米自动驾驶感知算法实习面经》

轻舟智航自动驾驶感知算法实习面经》

博世自动驾驶感知算法实习面经》

地平线自动驾驶感知算法提前批面经》

百度自动驾驶感知算法提前批面经》

蔚来自动驾驶感知算法实习面经》

华为车Bu自动驾驶感知算法秋招面经》

理想自动驾驶感知算法秋招面经》

零一汽车自动驾驶感知算法实习面经》

商汤自动驾驶感知算法实习面经》

滴滴自动驾驶感知算法秋招面经》

酷睿程自动驾驶感知算法实习面经》

速腾聚创自动驾驶感知算法秋招面经》

该专栏汇总了本人在秋招和实习期间拿到的华为车Bu、小米、轻舟智航、理想、地平线、百度、美团、蔚来、旷视等多家公司Offer的感知算法面经,并将面试中的重点问题给出了参考答案,供各位同学参考。

一、第一轮技术面试

  • Q1:自我介绍
  • 面试官先从简历中涉及到的实习项目出发,对实习项目中涉及到的相关技术进行提问和交流
  • Q2:问了一个关于BEVFormer算法模型的实习项目,重点询问了BEVFormer算法模型在业务数据上的相关情况?
  • A2:这个问题可以从BEVFormer算法的参数量、是否方便实车部署、在业务数据上的表现效果等方面来回答。
  • Q3:在实习期间,让你印象最深的一个项目是哪一个,简单介绍一下?
  • A3:一般介绍项目的时候,介绍顺序一般为项目背景+采用的技术路线+遇到的困难和挑战+实验指标/实验结论四个方面来说。
  • Q4:是否了解目前比较新的BEV感知算法,简单做一下介绍?
  • A4:可以从纯视觉、纯激光雷达或者多模态(Lidar+Camera)、(Radar+Camera)介绍;该问题重点是考察候选人对于新技术的follow程度
  • Q5:是否了解传感器之间的坐标系变换过程,简单介绍一下?
  • A5:重点是ego坐标系、相机坐标系、图像坐标系、激光雷达坐标系之间的转换关系(可以参考视觉SLAM十四讲中的内容)。
  • Q6:是否了解目前比较新的在BEV感知算法中的端到端3D检测算法模型,简单介绍一下?
  • A6:可以参考类似PETR、PETRv2等相关端到端3D目标检测算法。该问题重点是考察候选人对于新技术的follow程度
  • Q7:可能组内使用过一段时间的BEVDepth算法模型,让我对这个算法模型进行一下介绍
  • A7:回答算法模型介绍类问题,可以从网络模型结构主要创新点以及和其他同类算法相比的优缺点等方面介绍。
  • 代码考察
  • 写一下2D目标检测的非极大值抑制后处理算法(NMS)

二、第二轮技术面试

  • Q1:自我介绍
  • 感觉第二轮的面试官比较侧重对于基础知识的考察,实习项目经历和基础知识的提问差不多一半一半,考察了不少关于计算机视觉、2D、3D检测的相关的内容
  • Q2:项目的出发点、采用的技术路线以及最后在业务数据集上的涨点情况?
  • A2:主要从项目背景+采用的算法模型+遇到了哪些技术难点+解决方案+最终效果几个方面来回答。
  • Q3:项目中使用的算法模型具有哪些优缺点?
  • A3:可以从算法模型的网络结构实际数据上的表现性能是否方便实车部署角度来回答。
  • Q4:针对项目中使用的算法模型后续做了哪些方面的改进
  • A4:这部分面试官主要考察你对于模型的理解,以及遇到发现问题&解决问题的能力。
  • Q5:2D目标检测任务中常用的分类和回归损失都采用什么,简单介绍一下?
  • A5:一般来说回归损失常用Smooth L1 Loss & IoU Loss;分类损失常用Focal Loss。
  • 代码考察
  • 写一个快速排序

#面经##互联网##自动驾驶##算法##秋招#
智驾算法一站式求职专栏 文章被收录于专栏

作为一名已经上岸的智驾算法工程师,将秋招中的面试经验和心得总结成《智驾算法一站式求职专栏》,包括【求职简历如何准备】、【论文/实习/科研项目经历如何包装】、【Leetcode算法刷题思路】、【十五家智驾感知算法面经汇总(附参考答案)】、【智驾端到端算法面经汇总(附参考答案)】【面试常见手撕题型汇总(附参考代码)】、【大厂在线笔试ACM模式输入输出题型汇总】等多个板块,祝你拿下心仪Offer!

全部评论
感谢博主分享
1 回复 分享
发布于 2025-03-09 21:25 黑龙江
真是来对了,随时看呀!!
点赞 回复 分享
发布于 2025-03-10 18:09 黑龙江
编程语言不限是什么语言都行吗
点赞 回复 分享
发布于 2025-03-08 23:08 北京
求答案
点赞 回复 分享
发布于 2025-03-08 23:05 北京
求BEVFormer资料
点赞 回复 分享
发布于 2025-02-16 19:23 北京

相关推荐

给我面没招了,感觉自己好菜、面试很难,还是要多多练习1.项目拷打2.你的知识库数据是如何清洗和构造的?如果数据质量参差不齐会对 RAG 系统产生哪些影响?3.文档切分策略是如何设计的?chunk size 和 overlap 会如何影响召回质量和生成效果?4.如果用户的问题在知识库中确实存在,但系统经常没有召回正确文档,你会如何排查?5.如果检索到的文档是正确的,但模型最终生成的答案仍然是错误的,你会如何定位问题?6.实际系统中,如果召回结果经常语义相似但事实不相关,你会如何优化检索模块?7.如果一个问题需要跨多个文档的信息才能回答,你的 RAG 系统如何处理这种情况?8.在 RAG 系统中如何判断问题出在检索模块还是生成模块?9.请详细说明 Transformer 从输入 token 到输出 logits 的完整计算流程。10.FFN 层为什么采用“先升维再降维”的结构,这种设计对模型表达能力有什么作用?11.MHA、MQA、GQA 在推理阶段的 KV Cache 占用和计算效率上有什么差异?12.为什么推理阶段 KV Cache 只缓存 K 和 V,而不缓存 Q?13.RoPE 的核心原理是什么,它在长上下文场景下会遇到什么问题?14.instruction tuning 中多轮对话数据训练时,loss mask 应该如何设计?15.如果 SFT 之后模型在特定任务上能力增强,但通用能力明显下降,你会如何解决?16.LoRA 的低秩分解为什么能够逼近全参数微调的效果?17.如果 LoRA 的 rank 设置不合理,在模型表现上会出现什么现象?18.DPO 训练后模型输出明显变长,在实际系统中你会如何处理?19.如果对齐之后模型变得过于保守,经常拒绝回答,你会如何调整训练策略?20.大模型出现复读机现象通常由哪些因素导致?
点赞 评论 收藏
分享
继续来分享下最近的面经~欢迎友好讨论,信息共享1. Transformer 为什么能替代 RNN 成为大模型主流架构?2. Self-Attention 的计算过程是什么,时间复杂度为什么高?3. Multi-Head Attention 的作用是什么,为什么要分多个头?4. 位置编码为什么必要,绝对位置编码和相对位置编码有什么区别?5. 什么是 KV Cache,它为什么能显著提升推理效率?6. Prefix Cache 和 KV Cache 有什么区别,分别适合什么场景?7. 为什么大模型推理通常是 memory bound,而不是 compute bound?8. Batch 推理和单请求推理的吞吐与延迟 tradeoff 是什么?9. Continuous Batching 解决了什么问题,为什么对推理服务很重要?10. Prefill 和 Decode 两个阶段的性能瓶颈分别在哪里?11. 大模型采样里的 temperature、top-k、top-p 分别会怎样影响输出?12. 贪心解码、束搜索、随机采样分别适合什么生成任务?13. 重复惩罚和长度惩罚分别是为了解决什么问题?14. 为什么模型有时会出现“复读机”现象,通常怎么缓解?15. 量化是什么,INT8、INT4、FP16 的核心区别是什么?16. 推理量化会对模型效果造成什么影响,如何评估是否值得量化?17. 张量并行、流水线并行、数据并行分别适合哪个阶段?18. 单机多卡部署大模型时,通信开销主要来自哪里?19. 为什么 GPU 显存是大模型部署的核心约束之一?20. 模型参数量、上下文长度、并发数三者之间是什么关系?21. 什么是 MoE 模型,为什么它能在参数规模很大时控制推理成本?
查看21道真题和解析
点赞 评论 收藏
分享
不愿透露姓名的神秘牛友
04-13 17:08
已编辑
阿里云 RocketMQ agent infra研发 0 硕士双一流
点赞 评论 收藏
分享
评论
17
28
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务