算法工程师精选面经合集
11家公司
42篇面经
最新 热门
/feed/main/detail/88b57795e9a54fb193f1516b1ed157b3
米哈游llm算法实习面经 狠狠被拷打
被横向挂了,希望发出来对大家有帮助!1* 简单概述你简历中的两个项目,包括项目背景以及你的具体分工,是独立完成还是团队协作2* 项目的数据来源是什么?你是如何确定优化目标的?3* 比如数据从 100 条扩充到 1.2 万条,是否全通过自动化生成?生成的样本具体是什么样的?举个例子说明一下生成前后的对比4* 怎么保证自动化生成数据的正确性呢5* 在通过调整参数直到模型回答正确为止的过程中,是否意味着生成的CoT中存在错误逻辑?6* 经过数据清洗后,最终用于SFT的有效数据量是多少?7* 在做微调时,除了 LoRA 是否对比过其他的微调算法8* 你是如何评价微调效果的?测试集的比例是多少?微调前后的准确率分别是多少?原有的模型性能保留了多少?9* LLM常用的结构是什么?10* 说一下Transformer 的整体结构11* 目前主流大模型最常用的位置编码是什么?。12* 写一下多头注意力机制的数学公式。13* 公式中为什么要除以 \sqrt{d_k}?其对梯度消失或梯度爆炸有什么影响?14* 在 Transformer 的 Encoder 和 Decoder 中,哪些部分是可以并行计算的,哪些不可以?15* 除了 LoRA,你还了解哪些微调方法?16* 大模型训练通常使用什么损失函数17* 在机器学习基础中,二分类问题、多分类问题以及回归问题分别使用什么损失函数?18* 你了解哪些优化算法19* 模型训练中出现过拟合的常用解决方案有哪些?20* Dropout 在训练阶段和预测阶段的处理方式是否一致?为什么要这样做?21* 大模型中的“复读机问题重复生成是什么原因导致的?如何从解码策略或训练层面解决?22* 幻觉问题产生的原因是什么?目前常用的工程解决方案有哪些?23* 写出逻辑回归的数学公式。
点赞 评论 收藏
分享
/feed/main/detail/5acd5c75538f4fc98608119f0971c67c/feed/main/detail/c620657e1ed045c68bdd0099bb7fb972
Agent实习一面 阿里国际 感觉好难啊
给我面没招了,发点面经攒攒人品~1*当大模型产生错误回答或幻觉时,在工程和算法层面有哪些规避手段?2* 描述 Transformer Decoder 的完整解码流程。3* KL 散度的数学意义是什么?在模型对齐(如 PPO/DPO)中起什么作用?4* MoE架构的具体实现原理是什么?路由(Router)是如何工作的?5* 面对模型在生成过程中出现循环、重复回答的问题,有哪些解决办法?6* BM25 算法的数学原理是什么?它相比于简单的 TF-IDF 有哪些改进?7* Agent 系统中的LangGraph是如何搭建的?其 Memory 组件的工作机制是怎样的?8* 如果单次生成的任务量远大于模型的 Max Tokens 限制,如何实现断点继续生成?9* Transformer 中 Attention 的本质是什么?请从数学角度解释。10* 为什么在计算 Attention 时需要进行Scaling11* Self-Attention 和 Cross-Attention 在作用和输入来源上有什么区别?12* 面对极长序列Attention 的 O(L^2) 复杂度问题目前有哪些主流解决方案?13* 在 Agent 多轮对话任务中,Attention 机制的局限性体现在哪些方面?14* 为什么模型在长上下文对话中容易出现“信息遗忘”?有哪些缓解机制?15* 介绍 SFT的流程,以及如何构建高质量、多样化的数据集?16* 在什么业务场景下,必须引入 RLHF 或 DPO 这种偏好对齐技术?17* MinerU 在解析复杂的工业文档(如图文混排)时,具体的处理逻辑是怎样的?18* 在多模态检索中,文本和图片是如何映射到同一个统一向量空间的?19* Ragas 评测框架中的 Faithfulness 和 Answer Relevance 指标的具体计算逻辑是什么?20* 相比于 LangChain,LangGraph 在处理循环任务和状态管理上有哪些优势?21* LangGraph 的状态快照机制是如何实现任务回溯和持久化的?
点赞 评论 收藏
分享
/feed/main/detail/49f102dc4f8d4d3291a72400a4748d4b/feed/main/detail/44421423db2d4db09e3e5d1a3849cfb6/feed/main/detail/3aeabdc532d74e5dbad844d5cce9e32b/feed/main/detail/e5d70d2d64074fba8b301f0127507ba3/discuss/860926878268280832
阿里Agent开发校招一面 攒人品
发一下问题给大家参考,攒攒人品!有面试过同岗的朋友欢迎评论区交流1.实习拷打2.项目拷打3.处理查询文档里的异构数据(如图片)时,具体的处理流程是什么?解析成纯文字后如何进一步加工?这样只返回文字给用户,图片信息不会丢失吗?4.你们是通过人工打标建立图片和文本的对应关系吗?文档量很大的情况下,打标工作能完成吗?5.如何保证大部分图片异构数据解析后回答的正确性?若回答错误,怎么识别问题?后续要验证回答准确性,你有什么方案?6.用于评测的另一个大模型,如何构造问题、分析文字并进行对比?这个大模型的正确率以及模型自我一致性怎么确定?7.你们的模型基于哪些异构图像做增强?模型会不会产生幻觉,生成文档外的内容?8.若用户的问题不在文档里,你们会怎么处理?是调用其他模型吗?大模型回答不了时,会提示用户补充问题吗?用户补充后仍无法解决该怎么办?模型如何判断何时需要让用户补充提问?9.你们有框架编排这些流程吗?用的是什么框架?10.怎么理解检索召回率?这些指标具体包含哪些评价项?什么是忠实度?召回率的分子分母是怎么定义的?11.你之前那段实习的具体工作内容是什么?针对设备故障叙述报告这类复杂文本,模型如何理解?是做了相关检测吗?大模型是怎么实现术语解释的?12.请讲一下LoRA技术,除了减少参数量,它还有什么优点?你做的LoRA相关工作,后续有落地应用吗?13.你写代码主要用Python吗?会不会用Java?了解Java的多线程、双亲委派模型以及消息中间件吗?有没有做过Java相关项目?
点赞 评论 收藏
分享
/feed/main/detail/32b44b7e7ca64166902409ca9366d994/feed/main/detail/9d63b88b260c4aa9876a62e435de3c3f/feed/main/detail/5e38806012f94d5aa4bf0c7405f9aeb6
阿里Agent开发校招一面 攒人品
发一下问题给大家参考,攒攒人品!有面试过同岗的朋友欢迎评论区交流1.实习拷打2.项目拷打3.处理查询文档里的异构数据(如图片)时,具体的处理流程是什么?解析成纯文字后如何进一步加工?这样只返回文字给用户,图片信息不会丢失吗?4.你们是通过人工打标建立图片和文本的对应关系吗?文档量很大的情况下,打标工作能完成吗?5.如何保证大部分图片异构数据解析后回答的正确性?若回答错误,怎么识别问题?后续要验证回答准确性,你有什么方案?6.用于评测的另一个大模型,如何构造问题、分析文字并进行对比?这个大模型的正确率以及模型自我一致性怎么确定?7.你们的模型基于哪些异构图像做增强?模型会不会产生幻觉,生成文档外的内容?8.若用户的问题不在文档里,你们会怎么处理?是调用其他模型吗?大模型回答不了时,会提示用户补充问题吗?用户补充后仍无法解决该怎么办?模型如何判断何时需要让用户补充提问?9.你们有框架编排这些流程吗?用的是什么框架?10.怎么理解检索召回率?这些指标具体包含哪些评价项?什么是忠实度?召回率的分子分母是怎么定义的?11.你之前那段实习的具体工作内容是什么?针对设备故障叙述报告这类复杂文本,模型如何理解?是做了相关检测吗?大模型是怎么实现术语解释的?12.请讲一下LoRA技术,除了减少参数量,它还有什么优点?你做的LoRA相关工作,后续有落地应用吗?13.你写代码主要用Python吗?会不会用Java?了解Java的多线程、双亲委派模型以及消息中间件吗?有没有做过Java相关项目?
点赞 评论 收藏
分享
/feed/main/detail/98f1a64314e04a6d8e21d99261297053/feed/main/detail/aa7deb984ef5446bbeb35c8e6019634e/feed/main/detail/5e0f756e3dd94d6689627a287a92903b/feed/main/detail/3502366fb83f47bcae27bbb705510b85/discuss/860821812756639744/feed/main/detail/3819c8d1b15044449ada8b2439503e9e/feed/main/detail/0553e53f3500475c9109ec36e48b98e6/discuss/860821360669413376/feed/main/detail/f989c9e234fe42a1a33c6963c90c25a0
玩命加载中
写面经
发动态
发动态
发帖子
写文章

全站热榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务