算法工程师精选面经合集
11家公司
42篇面经
最新 热门
/feed/main/detail/7e35eb072e0743b5b988a1f8bf513d02/feed/main/detail/39722274b4d849789011d215b203988a/feed/main/detail/792f7343fb184a209388d5f657d708f1
腾讯 IEG 大模型日常实习一面
查看20道真题和解析
点赞 评论 收藏
分享
/feed/main/detail/2cf62dfd25b64775913d4b7401ff109a
字节番茄AI agent开发二面面经分享
攒攒人品!有面试过同岗的朋友欢迎评论区交流1.项目拷打2.实习拷打3.OCR 结果有噪声或错误时,你是怎么做纠错或提升解析质量的?4.多模态检索中,图像和文本向量不在同一空间时,如何实现对齐?5.Agent 中长短期记忆如何设计?各自存什么,怎么触发读取?6.多轮对话中,如果不同轮次的记忆发生冲突,你如何处理?7.用户情绪异常(投诉、愤怒)时,Agent 如何在不中断主流程的情况下进行干预?8.长文档为什么一定要切 chunk 再做向量化?不切会有什么问题?9.chunk切分时为什么要有重叠区域?比例一般怎么确定?10.稠密向量和稀疏向量的区别是什么?各自适合什么场景?11.是否做过关键词召回和向量召回的融合?具体怎么做的?12.向量检索中 Top-K 设置过大或过小分别会带来什么问题?13.余弦相似度和欧氏距离在高维空间中的差异是什么?实际怎么选?14.为什么需要 rerank 模型?它解决了向量召回的哪些问题?15.rerank之后的截断策略是怎么设计的?为什么选这个 K 值?16.文档发生局部更新时,如何做增量索引而不是全量重建?17.RAG 中如果没有召回到相关知识,如何约束模型避免胡编?18.HyDE 在 query 模糊时是如何提升召回效果的?19.超长上下文模型出现后,RAG 架构的必要性是否会下降?20.大模型高并发调用时,如何做限流、降级和成本控制?
点赞 评论 收藏
分享
/feed/main/detail/27ceb2d68d90494382e53d2f821f99e3
小红书Ai agent算法一面 攒人品
查看20道真题和解析
点赞 评论 收藏
分享
/feed/main/detail/6819d2a74f00489ea3e3913a5139346a
昨天 13:35
门头沟学院 Java
百度文心agent开发一面 85min
攒攒人品!有面试过同岗的朋友欢迎评论区交流1.实习拷打2.项目拷打3.你们的 Agent 是单 Agent 还是多 Agent?为什么这么设计?有没有考虑过另一种方案?4.Agent 任务是怎么拆分的?拆分粒度是怎么决定的?5.上下文是怎么构建的?你们怎么避免上下文过长或者信息污染?6.如果上下文窗口不够,你优先保留哪些信息?为什么?7.你们做代码理解的时候,AST、调用关系这些信息是怎么用起来的?8.单测生成里,哪些代码其实不适合生成单测?你们是怎么识别并过滤的?9.覆盖率高但测试质量很差,这种情况你见过吗?你们是怎么解决的?10.mock在单测里什么时候是必须的?什么时候反而会带来问题?11.如果一个函数依赖数据库和RPC,你怎么让模型生成的单测还能稳定运行?12.你们怎么评估生成单测的质量?除了覆盖率,还有哪些指标?13.LLM的输入到底是什么?模型真正看到的是什么?14.self attention的核心作用是什么,为什么要拆成 QKV?为什么attention 可以建模长距离关系,15.为什么需要multi-head为什么 attention可以看成动态加权16.同一个 token的 Q、K、V 为什么不一样?17.attention复杂度很高,如果上下文特别长,你会怎么优化?18.模型产生幻觉的时候,一般是什么原因?工程上有什么办法降低19.Python有多线程吗?GIL 是干什么的?什么时候多线程是有用的?20.讲一下C++从源码到可执行文件的流程。21.手撕:给定数组的区间中位数之和:给定一个长度为n的数nums,一个区间 [l, r] 的 中位数 为:如果区间长度是奇数:排序后中间的数,如果是偶数:排序后靠左的那个数,要求:计算所有子数组的中位数之和
查看19道真题和解析
点赞 评论 收藏
分享
/feed/main/detail/6ee46c1d510e4231b04d845f07f10cfb/feed/main/detail/e4c29eb857c14531b2bfe89b23a0a629
腾讯混元大模型算法一面(好难啊
发点面经攒攒人品~1.项目拷打2.实习拷打3.你提到用了CKA你能解释一下它是怎么计算的吗?这个指标真的能评估对齐程度吗4.ModalityAdapter模态适配器这个模块你是怎么设计的?它是怎么起作用的?有没有做过ablation实验?5.对比学习里你怎么构造正负样本的?正负样本不容易区分的时候你们是怎么处理的?有没有用HNM6.你们项目里用了多个loss比如MSE + Contrastive Loss + KL 散度为什么这么设计?有没有出现loss拉扯现象7医疗组手那个项目你说做了Prompt模板设计,能不能举几个例子?分类模板和生成式模板在你们场景下分别怎么做的8你们用的知识库是静态的吗?有没有做向量索引?用的什么方案9怎么避免模型产生医疗幻觉?你们有没有做 hallucination 率评估11.你用过哪些模型推理框架?你觉得Ollama和vLLM区别在哪儿?在车端你们选它们的依据是什么?12.你们说做了14B的车端模型,你们是怎么用SFT数据去做微调的?数据怎么构建的13.评测体系你是怎么搭建的?评测指标都有哪些14.你说你们构建了车载Agent平台Agent链路是怎么调度的多轮对话怎么做状态维护?15.Rewrite模型是你做的,具体输入输出是什么?你们是把 rewrite放在检索前还是后?训练数据是人工构造的吗?16你现在要设计一个多模态模型用于车内驾驶员状态识别,传感器包括摄像头和力传感器,你会怎么设计这个 pipeline
点赞 评论 收藏
分享
/feed/main/detail/a6635434f01241118fff6629de73b95a
快手大模型llm面经分享
发一下问题给大家参考,攒攒人品!1 项目拷打2. 在 Agent 多轮对话任务中,Attention 的局限性具体体现在哪些方面?3. 简要介绍 SFT 的核心流程,以及如何制定数据集的构建策略?4. SFT 之后常见的 Post-Training还有哪些?它们各自的设计目的是什么5. 什么是RAG它提升生成质量的核心原理是什么6.RAG与传统的检索 + 模型生成流程有何不同7.如何构建评估体系来验证一个RAG系统是否真正Work?8.PPO和DPO在对齐阶段的主要区别是什么?9. 在进行DPO训练时,通常有哪些关键的注意事项?是否了解过GRPO10.在Modular Agent中,多步规划是如何实现的?11.针对多个工具的调用链路,你的调度策略是如何设计的12. Agent 评估体系包含哪些核心维度?如何量化衡量Planning能力与Hallucination Rate )?13.在微调Qwen模型时,你是如何确定训练阶段和 Loss Function的?14. Prompt自动推荐模块应用了哪些优化策略?是否尝试过Prompt压缩或Embedding表示的方式?15.假如Agent推理链路包含3个工具且请求频率极高,导致系统整体延迟较高,你会从哪些维度进行优化?17.在记忆系统中,意图识别 承担什么职责?18.Embedding的维度选择(如 1024 维)是基于什么逻辑?为什么不选择更高或更低的维度?19.Qwen-4B的Embedding是如何实现的?其模型框架是否属于 BERT 系列?20.Qwen-34B的Rerank是如何实现的?21.Attention机制中的Q, K, V矩阵具体是如何通过输入变换得到的?22.Attention公式中除以根号d_k的作用是什么?如果不除以它,是否有其他替代方案?23.请详细解释Multi-Head Attention ,并指出它目前存在的主要问题24. 如何解决多头注意力机制计算开销过大的问题25. 什么是 RoPE ?它核心解决了什么问题?26. 在 Memory  系统中,如果输入文本过长,常见的工程处理策略有哪些?
查看24道真题和解析
点赞 评论 收藏
分享
/feed/main/detail/af68879fb392421dbb1970e6ebb0018b
百度文策大模型二面面经分享
给我面没招了,感觉自己好菜、面试很难,还是要多多练习1.项目拷打2.你的知识库数据是如何清洗和构造的?如果数据质量参差不齐会对 RAG 系统产生哪些影响?3.文档切分策略是如何设计的?chunk size 和 overlap 会如何影响召回质量和生成效果?4.如果用户的问题在知识库中确实存在,但系统经常没有召回正确文档,你会如何排查?5.如果检索到的文档是正确的,但模型最终生成的答案仍然是错误的,你会如何定位问题?6.实际系统中,如果召回结果经常语义相似但事实不相关,你会如何优化检索模块?7.如果一个问题需要跨多个文档的信息才能回答,你的 RAG 系统如何处理这种情况?8.在 RAG 系统中如何判断问题出在检索模块还是生成模块?9.请详细说明 Transformer 从输入 token 到输出 logits 的完整计算流程。10.FFN 层为什么采用“先升维再降维”的结构,这种设计对模型表达能力有什么作用?11.MHA、MQA、GQA 在推理阶段的 KV Cache 占用和计算效率上有什么差异?12.为什么推理阶段 KV Cache 只缓存 K 和 V,而不缓存 Q?13.RoPE 的核心原理是什么,它在长上下文场景下会遇到什么问题?14.instruction tuning 中多轮对话数据训练时,loss mask 应该如何设计?15.如果 SFT 之后模型在特定任务上能力增强,但通用能力明显下降,你会如何解决?16.LoRA 的低秩分解为什么能够逼近全参数微调的效果?17.如果 LoRA 的 rank 设置不合理,在模型表现上会出现什么现象?18.DPO 训练后模型输出明显变长,在实际系统中你会如何处理?19.如果对齐之后模型变得过于保守,经常拒绝回答,你会如何调整训练策略?20.大模型出现复读机现象通常由哪些因素导致?
点赞 评论 收藏
分享
/feed/main/detail/b9f8924453c44c5baa00a3cbebf9ef78
滴滴-大模型-面经
帮你内推|滴滴 校招
点赞 评论 收藏
分享
/feed/main/detail/f3bde149c0644d919de595e966a4eccb
百度AI Agent开发一面-日常实习
攒攒人品!有面试过同岗的朋友欢迎评论区交流1.项目拷打2.项目中实际 QPS、延迟、数据规模是多少?瓶颈在哪,怎么解决的?3.讲一个你做过的技术选型,为什么选它?有没有更优方案?4.设计一个支持多轮对话+工具调用的 Agent,整体架构怎么拆?5.Prompt 如何设计才能降低 hallucination?有哪些工程手段?6.多轮对话中上下文过长怎么处理?裁剪策略有哪些?7.Agent 调多个工具时,如何做调度、重试和兜底?8.function calling / tool calling 的实现原理是什么?9.一条 query 在 RAG 系统中的完整链路是怎样的?10.BM25 和向量召回各自优缺点?线上如何融合?11.embedding 模型选型时要考虑哪些指标?12.query rewrite / 多 query 扩展的原理是什么?有什么风险?13.rerank 模型为什么必要?一般放在哪一层?14.HNSW 的核心结构是什么?为什么查询效率高?15.IVF、PQ、HNSW 的区别和适用场景?16.向量索引如何支持高并发查询和在线更新?17.embedding 维度过高会带来什么问题?如何优化?18.文档 chunk 如何切分?长度和重叠怎么设计?19.如何解决 chunk 切分带来的语义断裂问题?20.知识库如何做增量更新并保证一致性?21.多模态数据(图文/表格)如何统一建索引?
查看20道真题和解析
点赞 评论 收藏
分享
/feed/main/detail/aa10dd19706a4a6d8d9789ee43888e75
美团 无人车项目部 一面
查看10道真题和解析
点赞 评论 收藏
分享
/feed/main/detail/99bfbf35bbb5493d908219e5c081dbb5/discuss/865883492482150400/feed/main/detail/9ff0f0736ed94d1eb95baec333dddb66
高德地图大模型算法二面 业务拷打
发一下问题给大家参考,攒攒人品!1.刚刚提到用户画像体系有几大类标签,能具体讲一下这几类分别是什么吗?每一类大概有哪些代表性的标签2.一共沉淀了多个标签,这些标签一开始是怎么设计出来的?是算法驱动还是业务驱动3.在设计标签体系的时候,你们怎么判断一个标签是有业务价值的?有没有出现过做出来但业务用不上的标签4.刚才说用户画像主要是给推荐和广告用的,那在推荐系统里面,这些标签一般是怎么被消费的5.做用户画像的时候,怎么避免标签之间高度相关甚至重复的问题6.刚才说用 DeepSeek R1 做标签挖掘,那模型输入的数据具体有哪些?7.用户行为序列一般都很长,为什么不直接喂给模型,而是做了行为压缩?压缩具体是怎么做的8.压缩的过程中有没有可能丢失关键信息?你们怎么评估这个影响9.在Prompt 里是怎么设计输出格式的?如果模型输出格式不稳定,工程上是怎么处理的10.为什么要在 Prompt 里加入很多禁止做什么的约束?为什么这种负向约束通常比正向指令效果更好?11.为什么标签做语义分组,为什么把同一类标签放在一起预测会更稳定呢13.把 R1 的结果拿去做 SFT,为什么要做这一层?直接用大模型不行吗?14.R1 生成的标签本身就可能有噪声,那怎么保证蒸馏训练的数据质量?15.如果只保留高置信度样本,那低置信度的标签是直接丢弃了吗?有没有办法提高覆盖率?16.如果 Teacher 模型本身准确率只有70%到80%,那 Student 模型蒸馏之后会不会进一步下降17.在这个场景里,蒸馏后的模型效果是怎么评估的?18.做 POI 价格推理的时候,为什么要区分有图和无图两种模型?为什么不统一用一个多模态模型?19.判断一个商户消费水平的时候,图片里哪些信息对模型最有帮助?20.人均价格是一个连续值,那模型预测的时候是完全自由生成的吗21.价格预测本身可能存在很大噪声,怎么评估模型效果的?业务上更关注什么指标?
点赞 评论 收藏
分享
/feed/main/detail/44800bc75b804513af7b99d4a795be81/discuss/865882472158879744
昨天 06:35
门头沟学院 Java
ai agent开发一面面经分享-百度
给我面没招了,发点面经攒攒人品~1.项目拷打2.提示词模板是怎么设计和迭代的?你怎么判断一个模板是真的更好了?3.你们的 Agent 是单 Agent 还是多 Agent?为什么这么设计?有没有考虑过另一种方案?4.Agent 任务是怎么拆分的?拆分粒度是怎么决定的?5.上下文是怎么构建的?你们怎么避免上下文过长或者信息污染?6.如果上下文窗口不够,你优先保留哪些信息?为什么?7.你们做代码理解的时候,AST、调用关系这些信息是怎么用起来的?8.单测生成里,哪些代码其实不适合生成单测?你们是怎么识别并过滤的?9.覆盖率高但测试质量很差,这种情况你见过吗?你们是怎么解决的?10.mock 在单测里什么时候是必须的?什么时候反而会带来问题?11.如果一个函数依赖数据库和RPC,你怎么让模型生成的单测还能稳定运行?12.你们怎么评估生成单测的质量?除了覆盖率,还有哪些指标?13.LLM 的输入到底是什么?模型真正看到的是什么?14.self attention 的核心作用是什么?为什么要拆成 QKV?为什么 attention 可以建模长距离关系,15.为什么需要 multi-head为什么 attention 可以看成动态加权16.同一个 token 的 Q、K、V 为什么不一样?17.attention 复杂度很高,如果上下文特别长,你会怎么优化?18.模型产生幻觉的时候,一般是什么原因?工程上有什么办法降低
查看18道真题和解析
点赞 评论 收藏
分享
/feed/main/detail/fb9d83f0b6cd44b1ac3e3cafed6a1cf0/feed/main/detail/c11ea83e5a1e4641addbb1fc463fa70b
玩命加载中
写面经
发动态
发动态
发帖子
写文章

全站热榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务