算法工程师精选面经合集
11家公司
44篇面经
最新 热门
/feed/main/detail/910175e858ae419ba55ebe83db28bbcf
华泰证券校招记录
双9硕士应届, 中型企业实习 (校企合作性质), 还没发论文但实验已做得差不多了投递的岗位是算法工程师按照时间顺序1. 线下笔试 (2小时) + 线下技术面试 (半小时?)笔试:线下的校园招聘会, 笔试就是基本的行测+技术岗选择+两道编程题编程题极其水, 5分钟秒了技术面试:自我介绍实习哪的, 做的什么实习期间各段经历的详细拷打 (从工作内容到技术原理, 可能因为我实习期间做的大模型相关工作和面试官所在部门相关性较强, 所以面试官问了不少技术细节)自己的研究生期间工作是什么研究生期间工作的具体内容询问 (从头介绍一遍自己的工作, 问了不少细节)反问环节 (我问了问业务和技术的结合点, 工作时间等等, 还问了点没必要的东西, 比如技术考核怎么做的)2. 资料收集3. 杂项线上终面测评 (通用的反社会人格筛选测试)还没终面就发了统一校招体检通知和一堆信息收集表 (?)4. 线上终面 (10分钟)拷打本科研究生中间空的两年什么情况 (我本科保研资格被体育挂科整丢了, 所以临时在校工作一年, 然后考研. 几乎所有企业面试都会揪着我问这点 ... )实习是什么, 做的什么 (简要介绍了下内容和成果)其他应聘的进展对找工作的关注点 (那当然首先是工资了, 再就是上升和发展空间. 提了一句我想后续转型量化研究, 面试官回复说公司有后续转型的渠道)应聘华泰的个人优势/卖点自己的不足之处 (?) (没准备过, 简单说了个自己对金融业务不了解, 以后可能需要多和业务部门交流, 技术上的问题就遇到再说了)
查看11道真题和解析
点赞 评论 收藏
分享
/feed/main/detail/69b87f347e6e4bce8360452686411641/feed/main/detail/2ca8706ef1c8458fa21f27dccc9a45da/feed/main/detail/922a1cc2a753434781b4446110730e89/discuss/821341889361141760/feed/main/detail/78ce858f244b42c995b6f3c64043eb20/feed/main/detail/1177dedd5bb247da907ece6768c263c9/feed/main/detail/329bf56bd8b245ea93fdaea2a381638a/feed/main/detail/575c9e663d2643d5a1aed26864626432/feed/main/detail/ff7e9ce56d124c9ca9220b70edc70aa4/feed/main/detail/02f80b1e0d5142528ac78b510ba11cdb/feed/main/detail/886defcde34b42eab8f0f63a0a29c153/feed/main/detail/b03bbab4b31748acbe7f7cba7c8b8e97/feed/main/detail/9477d6ec4d194f8eb370fcc3fff15028/feed/main/detail/18333e3c94604eee9f305c89ada75682/feed/main/detail/90dbb33132b2403b8f873481439bfabf/feed/main/detail/b4ec0fe06e0546a88b282bd4023df6e5
阿里通义大模型算法二面已凉凉
1.实习介绍2. Lora 原理(核心是低秩分解:将原始权重更新近似为两个低秩矩阵乘积,减少参数量,保留主导方向,训练高效)3.了解 DeepSpeed 吗,ZeRO -1, ZeRO -2和 ZeRO3分别做了哪些优化(1优化优化器状态,2优化梯度,3切分参数,全面节省显存)4. Qwen的模型结构是怎么样的,相比于 LLaMA,DeepSeek 有什么区别(Qwen采用GQA+SwiGLU+RMSNorm,和LLaMA架构非常相似,差异在训练数据和tokenizer中文支持更好;DeepSeek只用MoE/MLA架构,Qwen系列主要是Dense模型)5.怎么缓解大模型的幻觉问题(RAG,RLHF对齐,事实监督)6.大模型的 MoE 结构相比于 Dense 结构训练的难点在什么地方,DeepSeekMoE为什么效果好,有什么值得我们借鉴创新点(MoE面临负载不均衡、训练不稳定问题;DeepSeekMoE通过细粒度专家和共享专家设计提升稳定性和效果)7.知道FP16和BF16有什么区别吗,包括FP32和INT8这些,在训练大模型的时候,应该怎么选择(FP16精度高但易溢出,BF16动态范围大;训练常用BF16混合精度,推理用INT8量化加速)8.讲-下 RLHF 的流程,写-下 PPO和 DPO的 Loss表达式(训练奖励模型后用PPO/DPO优化策略:PPO Loss: policy ratio + KL 约束/ DPO Loss: logit preference diff + sigmoid binary loss)9.对于超长上下文业界一般是怎么做的,你知道 Qwen是怎么做的吗(业界常用ROPE 变体/滑动窗口注意力/稀疏注意力等:Qwen使用YaRN和窗口注意力扩展上下文)10.开放题:你觉得目前大模型的上限在哪里(推理能力、长期记忆、具身交互和能耗效率,需要架构创新和多模态融合突破)11.代码:152.乘积最大子数组
查看9道真题和解析
点赞 评论 收藏
分享
/feed/main/detail/adf50b424ec4427ea66398a1d42eef3c/feed/main/detail/306288f82dc94a189fb962646c692119/feed/main/detail/5ea9080b3fa1482eb65b7de0b635984d
玩命加载中
写面经
发动态
发动态
发帖子
写文章

全站热榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务