首页 / 大模型
#

大模型

#
716125次浏览 9544人互动
此刻你想和大家分享什么
热门 最新
大模型应用开发面经 (5年经验)
时间范围 近半年实际面过的公司阿里、腾讯、美团、字节、快手、同程、京东、360、keep、滴滴、印象笔记、作业帮、彩云科技、蓝色光标、江城互娱、Aviagames、Hungry Stdios、深言科技、即时科技、RockFlow、格灵深瞳、百融云创、印象笔记、网龙、 HiDream.ai、昆仑万维、数驱互动、Authing先说总结面试内容 & 难度个人觉得,在llm应用的面试题上,没有太多复杂、高深的问题,不像上来让你说一下分布式锁怎么设计然后死扣设计细节或是描述一下MVCC原理这种偏高难度的八股文问题(当然也遇到了一两次),究其原因以下几点,一是大模型应用目前仍没有很成熟且被广泛接纳的方案,都还在探索;二是很多公司今年刚开始all in AI(我司all进去的比较早点),面试官也懂得不多,例如RAG这个东西,大部分的面试题无非是“你觉得RAG中最难的是什么?(文档切割喽)”、“你是怎么解决幻觉问题的?”,“微调和RAG的区别是啥?”等等,如果你做过RAG加上你经常看技术文章结合你的“侃侃而谈”,基本面试官都觉得ok。但这里着重说一下我觉得当前非常重要且极大概率提升面试通过率的的一个技术点,就是掌握微调原理并且做过动手做过微调工作再加上动手部署过大模型,这是我面试中最常被问到而又只能说没做过的问题,当然大部分公司都有专门的算法团队去做这件事,自己到没机会参与其中,也是可以理解的。算法题:一半是DP问题,还有一部分难度是easy的问题,总体上都是“老熟人”,但是,你即使写出来,面试不一定就能过,有的干脆就不考算法题。八股文:明显比之前少很多,这个和面试的岗位有关系,LLM应用的岗位更偏实践,所有很多一面就是leader面,直接问项目,除非一面也不懂LLM的东西,就会考八股文,但总的来说,八股少了,但是绝对不可以不准备,好几次挂在这上面,别小瞧它。岗位内容:游戏公司:基本上是LLM + AB test for 游戏策划;BI 分析;游戏社区客服助手;toC: Agent 个人助手toB: Agent for 解决方案other: 通用 Agent 平台;公司内部AI助手、平台;Agent for 运维offer会有很多横向对比,如果你期望薪资比较高,对方说要在等等,基本上凉了。大部分涨幅基本是不到20%的,但我的期望是30%左右,最后还是拿到了(要有一点点耐心,还要有一定的运气)。不要眼高手低,先拿一个低于自己预期的offer,再慢慢谈,前提是公司想要你。规划好时间,集中面试,集中对比,由于我时间线拉的过长,后面安排的很乱。再总结每次面完都要复盘,没答好的问题,一定要重新梳理答案。没把握问题的可以直接说不会,别给个你自己都听不懂的答案。简历一定要让大模型润色,但自己要check一遍,别吹过头了。多看技术文章,扩展技术视野,提高二面面试官对你的印象。表达一定要流畅清晰,不要断断续续的,面试官会觉得你思路不清晰。项目效果评估是个很重要的问题,不管你的技术多炫酷,终究还是要看效果,看落地效果。面试题这里想到多少写多少LLM 基础大模型是怎么训练出来的?Transform 的架构,Encoder 和 Decoder 是什么?Function Call 是怎么训练的?微调的方案有哪些?自己做过没有?大模型分词器是什么?Embedding 是什么?你们用的那个模型?Lib介绍一下 langchian介绍一下 autogen有没有用过大模型的网关框架(litellm)为什么手搓agent,而不是用框架?mcp 是什么?和Function Call 有什么区别?有没有实践过?A2A 了解吗?PromptReAct 是啥?怎么实现的?CoT 是啥?为啥效果好呢?有啥缺点?Prompt Caching 是什么?温度值/top-p/top-k 分别是什么?各个场景下的最佳设置是什么?RAG你介绍一下RAG 是什么?最难的地方是哪?文档切割策略有哪些?怎么规避语义被切割掉的问题?多路召回是什么?文档怎么存的?粒度是多大?用的什么数据库?为啥要用到图数据库?向量数据库的对比有没有做过?Qdrant 性能如何?量级是多大?有没有性能瓶颈?怎么规避大模型的幻觉?微调和RAG的优劣势?怎么量化你的回答效果? 例如检索的效果、回答的效果。Workflow怎么做的任务拆分?为什么要拆分? 效果如何?怎么提升效果?text2sql 怎么做的?怎么提高准确率?如何润色query,目的是什么?code-generation 是什么做的?如何确保准确性?现在再让你设计你会怎么做?(replan)效果是怎么量化的?Agent介绍一下你的 Agent 项目长短期记忆是怎么做的?记忆是怎么存的?粒度是多少?怎么用的?Function Call 是什么做的?你最大的难题是什么?你是怎么提高效果的?怎么降低延迟的?端到端延迟如何优化的?介绍一下single-agent、multi-agent的设计方案有哪些?反思机制是什么做的?为什么要用反思?如何看待当下的LLM应用的趋势和方向为什么要用Webrtc?它和ws的区别是什么?agent服务高可用、稳健性是怎么保证的?llm 服务并发太高了怎么办?系统设计题短链系统分布式锁的设计给你一部长篇小说,怎么做文档切割?怎么做到论文翻译,并且格式尽可能和原来的统一游戏社区客服助手设计。如何绑定游戏黑话,如何利用好公司内部的文档结合线上问题快速定位项目工程代码有问题的地方有很多结构化和非结构化数据,怎么分析,再怎么得出我要的结论。八股go的内存分配策略、GMP、GCpython 的内存分配策略、GCredis 用过那些?mget 底层什么实现的?、zset怎么实现的?mysql 索引怎么设计最好?数据库隔离级别?mvcc是怎么实现的?分布式锁是什么实现的?kafka的 reblance 是什么?会产生那些问题?怎么保证数据不丢?fastapi 设计原理?go 中 net/http 如何处理的tcp粘包问题http2 是什么?比http1.1有什么优势?Linux 网络性能调优的方式如何定位Linux中的pid、端口号等等个人在每个项目的里的角色是什么?承担那些工作?项目是几个人在做?为什么离职、每次离职的原因是什么?平常怎么学习的?怎么接触到大模型的最新进展的?对大模型将来的应用发展有什么看法?你将来的职业规划是什么?
大模型小坛:所有面试题可以开源给大家 后台T一下
点赞 评论 收藏
分享
点赞 评论 收藏
分享
08-11 17:20
已编辑
深圳大学 算法工程师
点赞 评论 收藏
分享
美团- 北斗计划-基座大模型推理引擎工程师
📍面试公司:美团🕐面试时间:2025-08-14,菜只因秋招处女面💻面试岗位:北斗计划-基座大模型推理引擎工程师BG:末9本,中科院硕,和组内课题不相关❓面试问题:自我介绍:一分钟完事1.介绍一下Transformer的架构,和传统RNN循环神经网络相比有何优势2.Transformer中参数都分布在哪里,参数量最大的是哪部分?计算量最大的是哪部分,为什么?3.了解GPU的cuda core、Tensor core吗,你常用的GPU有哪些,他们的显存和显存带宽有多大4.讲讲大模型的量化5.为什么需要PD分离技术6.讲讲PageAttention和Continous Batching技术7.讲讲cuda编程8.了解DeepSeek 的MLA机制吗?详细介绍一下和MHA、GQA、MQA的区别9.介绍一下DeepSeek MoE架构10.详细介绍一下各种并行方法,TP、PP、DP是什么11.为什么说Prefill阶段是计算密集型的,为什么Decode阶段是内存密集型的?无寿司🍣,感觉是回答的太烂了,30分钟结束。反问:从刚才的面试来看,感觉是不是做底层系统优化比较多,是不是CUDA编程很多?答:也不全是。主要综合来看,不是一定要掌握CUDA编程,但是作为大模型开发而言,CUDA编程肯定要学的,🙌面试感想:和蔼,有几道问题给我解释了;开始开了摄像头,后期关闭了摄像头;大模型八股偏多,依据简历问的,没问项目,我的项目是RAG,可能跟岗位关系不大,所以没问。
查看11道真题和解析
点赞 评论 收藏
分享
06-24 10:39
已编辑
西安交通大学 人工智能
大模型面试 | 大模型评估全攻略
攻略 🌈【大模型评估全攻略】!LLM七大核心评估维度保姆级拆解💯👉🏻预训练→SFT→RLHF→数据集→RAG→Agent→Prompt🔥一、预训练评估评估大型语言模型(LLM)的预训练效果需要从多个维度综合考量,涉及基础语言能力、下游任务表现、知识掌握、推理能力等。🔥二、SFT评估评估大型语言模型(LLM)在监督式微调(Supervised Fine-Tuning, SFT)后的效果,需要结合任务目标、领域特性和模型能力设计多维度的评估体系。🔥️三、RLHF评估评估大型语言模型(LLM)在通过RLHF(基于人类反馈的强化学习)后的效果需要从多个维度综合考量,包括生成质量、安全性、对齐性、任务完成度等。🔥四、数据集评估在评估数据集的质量时,可以从以下几个关键方面进行评估:1. 数据多样性2. 数据平衡性3. 数据完整性4. 数据一致性5. 数据与任务的适合性6. 标注准确性🔥五、RAG评估从召回、排序、生成、整体四个维度来评估RAG性能。使用了多种指标,如准确率(Correct)、错误率(Wrong)、失败率(Fail)、BERTScore、ROUGE Score等,以全面评估生成答案的质量。🔥六、Agent评估现如今Agent开发工具/框架不断出现,但如何全面地对Agent进行评估却很困难,本文就从介绍一些主流的Agent/LLM-as-Agent评估工作来看看是否能得到一些启发。🔥七、Prompt评估评估Prompt的好坏需要一个全面和多维度的方法,结合自动评估指标、人工评估和用户反馈等多种手段。选择合适的评估方法和技术,能够有效提升Prompt的质量和生成效果,进而提高模型的整体性能和应用体验。通过不断优化和改进Prompt设计,可以实现更自然、更准确、更有效的自然语言。
点赞 评论 收藏
分享
算法岗面试八股(一)
点赞 评论 收藏
分享
玩命加载中
牛客网
牛客网在线编程
牛客网题解
牛客企业服务