算法工程师精选面经合集
11家公司
42篇面经
最新 热门
/feed/main/detail/661fae23e9254a1fb56a81177430ef59/feed/main/detail/fa18b626b77d47328eddb9c00e8be370/feed/main/detail/94967639f27f4e838e2ee93ecaacb1cf/feed/main/detail/0eff0acec0aa4e13ab37b362db6caf80/discuss/866692156189130752/feed/main/detail/5fc5337486de4a68a84700e76a73530c/feed/main/detail/b51a59bdc68e4246a11356949eb7edb5/feed/main/detail/f16d940c3503439eaad04846775a9bab/feed/main/detail/8412543fe98d4a26aba602c232f95fa0/discuss/866674466628169728/feed/main/detail/286b844c43274de8808b62ea0a01f38d
AI infra应届春招
📍面试公司:小米🕐面试时间:2026/03/26(二十分钟草草收场,都不想去看结果就知道挂了)💻面试岗位:大模型推理优化❓面试问题:一、自我介绍二、八股问题拷打,其实上来就是手撕1、直接在编辑器上手撕MGA,要求写出init、forward、注意力层   ——丢人现眼了,基本不会写2、追问,不会写的话讲一下整个过程,输入到输出怎么样的?         ——讲了讲transformer,注意力机制3、vllm和sglang的底层代码有看过吗?                                          ——没看过(其实看过,但我不敢说,怕叫我写)4、kv cache有哪些加载方式?                                                        ——在胡言乱语,啊这个,啊那个5、PD分离机制是干什么的?你怎么实现的?                                   ——唯一能回答的问题6、有没有用vllm部署过模型?吞吐量是多少?                                 ——脑子昏了,沉默(跑了demo,没测过)7、MTP(可能是MCP?没听清)是什么,介绍一下?                     ——我估计想问Medusa?反正我没回答,沉默。到这他问不下去了。。。三、反问两个人尴尬一笑,没什么要问的了。🙌面试感想:应该是史上最无悬念的秒挂,第一个手撕不会之后我已经晕头转向了,加上昨天熬夜到五点,到后面我都有点不好意思了,感觉在浪费他的时间,在这里跟他道个歉😀。十月到现在算上开发+infra可能面了二十多家吧,大部分都是秒挂,感觉车企infra这块的要求都特别高吧,问的特别细,就是最新的技术一定都要掌握,这一块技术迭代感觉特别特别快,光背八股面经给我感觉不太行。鼠鼠也累了,但自觉已经尽力了。也感谢这些至少还给机会面试的公司吧,有些简历直接投垃圾桶里了。(希望下一届的同学早早准备,不要像鼠鼠一样还在为春招奔波)。
查看8道真题和解析
点赞 评论 收藏
分享
/feed/main/detail/b198bb96bade40768bfaaa94cb946256/discuss/866667992380100608/feed/main/detail/18ee6c229ebd4f6080543c429e48d5de/feed/main/detail/fc3d9c5fb3d34ad4a2bcb44f2f679ba1
字节大模型算法二面 面经分享
祝大家都能拿到满意的Offer!1.项目拷打2.你们这里说的分层混合编排式 Agent 架构设计是具体怎么做的3.我问一个就是你们在Routing那里,你会根据难度去做不同的一个处理,对吧?那你们这个难度是怎么划分的呢4.你刚才提到就是说,比方说如果刚开始有动态升级的一个范式,就是比方说这个任务刚开始被分配到了7B但是如果它在生成的过程当中,置信度或者说生成的结果它的置信度比较低,你们这个置信度是怎么生成的呢5.你们大概配备了多少个工具6.以风险评估为例,你们的输入输出分别是什么呢7.你的字段是什么8.比方说你说的收缩压这个字段,在用户的问题当中可能不会有这样的一个检测数据。那这种情况你们是怎么来处理呢9.我看到你这里有说在引入了应用层的MOE按照任务动态的激活专家路径,这个具体是怎么实现的呢10.这里就有个问题,我们针对不同的科室去训练一个微调专家,那你们是你们怎么训练的呢?怎么针对于不同科室去训练的,第二个问题就是逻辑上你们这个专家数量可不会少,然后你们的工作量会比较大,这个问题你们又是怎么解决的呢11.你们最终大概是用了多少个专家12.每个大概训练的数据量是多少呢13你们的这个70b模型用的是自己?从头开始预训练的吗?还是用的开源的14那你们医疗数据你们医疗数据的主要来源是在哪里呢?
查看13道真题和解析
点赞 评论 收藏
分享
/feed/main/detail/e979e572058f4cdca4cd15254f337754
字节大模型算法面经-面麻了已经
攒人品中,祝大家都能拿到满意的Offer!1.项目拷打2生成式推荐本质上是在做隐空间到离散iD的映射,你如何证明你生成的 ID 序列保留了用户意图的最优压缩3.比如广告场景下不仅仅是预估 CTR。如果我们将生成式排序引入 GSP拍卖,大模型生成的候选列表概率分布,如何保证满足激励相容性4如果模型生成的排序导致广告主出现竞价上的博弈呢5.在H100集群上跑生成式重排,现在的瓶颈不在计算而在存储带宽。如果分阶段推理,我在Prefill阶段采用了FlashAttention-3,但在 Decoding 阶段因为 KV Cache 导致的Fragmented Memory太严重,怎么办6.推荐系统要求毫秒级响应对于1B规模的排序模型,如果我要做Speculative Decoding,你如何设计那个Draft Model?这个小模型是该学大模型的 Logits 分布,还是该学用户的Embedding聚类7.假设构建一个端到端生成式广告系统。现在面临一个场景:某个新入驻的土豪广告主投放了一批高质量视频,但由于模型对新 ID 的 Semantic Indexing 尚未完全对齐,导致第一波推荐给了错误的人群,产生了极高的 Negative Feedback,生成式模型的自回归特性会不断放大这种“第一印象”,导致该广告主瞬间被屏蔽你如何设计一套Online Counterfactual Correction这种,在不重新训练模型的前提下,通过修改 KV Cache里的隐藏状态来强行挽回这批广告的生命周期9.在短视频重排阶段使用了一个 10B 的生成式模型但是业务反馈说模型在学会了今天最火的某个梗以后,竟然忘记了如何处理用户对“长尾科普视频”的旧兴趣,发生了明显的 Catastrophic Forgetting,设计一种基于 Gradient Orthogonal Projection的优化器,确保模型在更新实时热点知识时,参数更新量在旧知识的Null Space内。10.都知道生成式模型有位置偏差从 Attention Entropy 的角度来看,为什么 $N$ 个候选 Item 在序列中的排列顺序会直接导致 Logits 的非线性漂移
查看9道真题和解析
点赞 评论 收藏
分享
/feed/main/detail/40cd65b873aa47e4ad1f4fc82b6480e2/feed/main/detail/2bb26df149b648e7a80aeff2fda7e68a/feed/main/detail/83631897ba1c4ee38107829fdf5ce2fd/feed/main/detail/1cb66bf3ad8f4772a1cb395be6ab177c
玩命加载中
写面经
发动态
发动态
发帖子
写文章

全站热榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务