算法工程师精选面经合集
11家公司
42篇面经
最新 热门
/feed/main/detail/101e205200ab480db5677ee2852e7d91/feed/main/detail/d8bc7618c7234ca8b67d18866ddc4542/feed/main/detail/140a45bc0b314798a0d94b512cb7ea90/feed/main/detail/928edf1652b444cd9ef9f89141b1c00b/discuss/858020981078552576
网易大模型应用岗(已offer)
一面: 1. 自我介绍,讲论文和实习。2. Transformer自注意力机制、位置编码、梯度消失/爆炸的解决方案。3. 微调方法对比(Full Fine-tuning vs. LoRA/Adapter/P-Tuning)。4. 推理加速技术(量化、动态批处理、FlashAttention)。5. 如何优化大模型在长文本生成中的显存占用?6. RLHF中奖励模型(RM)的训练数据如何构建?7. 为网易云音乐设计一个AI歌词生成系统,如何提升创意性和押韵效果?8. 模型剪枝/量化(GPTQ、AWQ)、服务化框架(FastAPI+vLLM)。9. 如何解决大模型API服务的响应延迟问题?一面八股挺多的,问的知识点也非常多,主要考察对大模型的理解,整体来说难度不算大,复习熟记八股应该都比较好答。二面:1. 自我介绍,讲论文和实习。2. LayerNorm和BatchNorm在大模型中的区别?为什么Transformer用LayerNorm?3. 解释大模型训练中的“灾难性遗忘”现象及解决方法。4. 如果微调后的模型过拟合,你会如何调整?5. 如何评估一个对话系统的生成质量?6. 如何用大模型提升网易新闻的推荐效率?7. 设计一个游戏内AI陪玩系统,需考虑哪些模块?8. 领域适配时,如何构建高质量的垂域训练集?9. 你在项目中如何解决数据稀缺问题?10. 模型上线后遇到了什么性能瓶颈?如何优化的?建议:精读《Attention Is All You Need》、HuggingFace文档。如果没有大模型项目,可用Kaggle/开源项目复现(如LangChain应用)。
查看18道真题和解析
点赞 评论 收藏
分享
/feed/main/detail/8a176acc900d443598ad74a4046c79e1
我是如何准备大模型算法岗面试的?
很多人问我如何准备大模型的面试,分享下我的经验,针对两种情况:1. 有大模型实习2. 无大模型实习针对无大模型实习的情况,我建议先找一段中厂实习为主,比如 zhipu、Minimax (当然有大厂进大厂)这些,相对容易进,尽量积累大模型实习经历。针对有大模型实习的情况,复习内容为:1. 常规八股(transformer、bert 等)2. 最新八股(GQA 等)3. 技术报告(一定要自己看原PDF,目前推荐 DeepSeekV3, R1, kimi1.5, Minimax-01, Qwen2.5, Qwen2.5-VL)4. 手撕 Leetcode:Hot1005. 手撕模型,比如 MHA 这些首先是常规八股和最新八股,这一部分可以自己找找网上资料,整理好的,背。然后是技术报告,目前推荐的内容有:1. DeepSeekV3:必读2. DeepSeekR1:必读3. Kimi1.5:选读4. Minimax-01:选读,据我所知最长上下文模型(外推到 4M,不过好像被 LLama4 的 10M 超过了)5. Qwen2.5:必读6. LLama3.1:必读7. Qwen2.5-VL(如果简历有多模态内容):选读重点关注:1. 阶段训练(预训练几段、Post-training 几段?上下文用了多少?数据配比是什么?)2. 模型创新点(MHA 创新是什么?作用是什么?)3. 上下文优化创新点(一般是优化显存和阶段训练)4. 多模态优化创新点(简历有多模态内容)5. 几个模型不同之处(比如 Qwen2 和 Qwen2.5 的不同之处)最后是手撕,Leetcode 只刷 Hot100 够了,模型手撕建议关注(我目前会的):1. MHA2. LayerNorm3. Transformer Encoder (MHA+LayerNorm+FFN)4. PE(绝对位置编码)5. ROPE6. SwiGLU7. RmsNorm每次面试前快速过一遍就 ok 了。
查看18道真题和解析
点赞 评论 收藏
分享
/feed/main/detail/63aededb536044d783161a109f70c2fd/feed/main/detail/59dece94af144cba94157481f2e2b5ce/feed/main/detail/60ab2e3a45074b7391199acb9b5c6ca3/feed/main/detail/f43b38c668044b31ac4689462303fa0c
网易Ai infra 校招面经
1.请详细描述你在简历中提到的AI相关项目中,负责的主要模块和核心技术贡献。2.在设计一个高吞吐、低延迟的模型推理服务时,你会重点考虑哪些架构层面和工程层面的问题?3.请解释C++程序内存中栈(stack)、堆(heap)和静态/全局存储区的特点与主要区别。4.在C++中,new/delete`与'malloc/free`的主要区别是什么?为什么在C++中通常推荐使用前者?5.请解释深拷贝和浅拷贝的概念,并说明在什么情况下必须使用深拷贝。6.请阐述C++中'std:unique_ptr、'std..shared_ptr和'std:weak_ptr的设计意图、使用场景及相互区别。7.虚函数表(vtable)是如何实现运行时多态的?虚函数与纯虚函数(抽象类)在语义和用法上有何不同?8.什么是内存对齐?编译器对结构体进行内存对齐的主要规则是什么?请计算一个给定结构体(包含不同类型成员)在特定平台下的sizeof大小。9.请解释C++11中右值引用(&&)和移动语义(move semantics)的概念,并说明它们如何用于实现高效的数据转移(如std.:.vector的push_back)。110.简述CUDA的SlIMT(单指令多线程)编程模型,描述thread、block、grid的层次关系。11.在CUDA内核中,一个线程的局部变量通常存储在何处?这与寄存器的分配有何关系?12.在CUDA优化中,如何使用共享内存(Shared Memory)来减少对全局内存的重复访问?请举一个简单的例子(如矩阵乘法中的分块)。13.什么是warp shuffle指令?它在warp内部的数据交换和规约操作中有什么优势?14.解释在CUDA中使用float4或int4等向量化加载/存储指令进行合并访存的原理和性能收益。15.什么是共享内存的bankconflict?它是如何产生的?请举例说明。16.如何通过数据填充(padding)或其他内存布局调整技术来避免或减轻共享内存访问中的bankconflict?17.解释CPU缓存的工作原理,包括时间局部性、空间局部性的概念,以及常见的缓存替换策略18.编程题:实现一个算法,在一个包含大量整数的数据流中,实时找出出现频率最高的前K个元素。请描述你的思路(哈希表+最小堆)并分析时间复杂度。
查看18道真题和解析
点赞 评论 收藏
分享
/feed/main/detail/653959a6f5ff4fe2b5620ac418652629/feed/main/detail/2a9106374f0842c6af57cdb3acb51190/feed/main/detail/87e2d275ec62435ca036b6a99eb972be/feed/main/detail/aed72ed951f54745b240e723df9a9f96/feed/main/detail/f9765ac085684ab08c354afb4a057fa8/feed/main/detail/cbf0bbcb0539444f9532cb06859c4aef/feed/main/detail/8a9cf1c29c5f44aaa7def333f1f98709/feed/main/detail/bb24ea24216242ae8fb57557cfbc1bbd/feed/main/detail/841452f926a140babb84585de97c04aa/feed/main/detail/0e543b8a02b84b05950e55851687450f
玩命加载中
写面经
发动态
发动态
发帖子
写文章

全站热榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务