大模型应用面经合集(已拿offer!)

今天给大家分享一份热乎的大模型应用开发面经。
1️⃣时间范围近半年
2️⃣先说总结
(1)面试内容 & 难度个人觉得,在 LLM 应用的面试题上,没有太多复杂、高深的问题,不像上来让你说一下分布式锁怎么设计然后死扣设计细节或是描述一下 MVCC 原理这种偏高难度的八股文问题(当然也遇到了一两次)。
(2)offer会有很多横向对比,如果你期望薪资比较高,对方说要在等等,基本上凉了。大部分涨幅基本是不到 20% 的,但我的期望是 30% 左右,最后还是拿到了。
(3)再总结如下:每次面完都要复盘,没答好的问题,一定要重新梳理答案。没把握问题的可以直接说不会,别给个你自己都听不懂的答案。多看技术文章,扩展技术视野,提高二面面试官对你的印象。终究还是要看效果,看落地效果。
3️⃣面试题
1.LLM 基础:大模型是怎么训练出来的?2.Transform 的架构,Encoder 和 Decoder 是什么?
3.Function Call 是怎么训练的?
4.微调的方案有哪些?自己做过没有?
5.大模型分词器是什么?
6.Embedding 是什么?
7.你们用的那个模型?
8.Lib:介绍一下 langchian
9.介绍一下 autogen有没有用过大模型的网关框架(litellm)为什么手搓 agent,而不是用框架?
10.mcp 是什么?和 Function Call 有什么区别?有没有实践过?A2A 了解吗?
11.Prompt:ReAct 是啥?怎么实现的?CoT 是啥?为啥效果好呢?有啥缺点?Prompt Caching 是什么?温度值/top-p/top-k 分别是什么?各个场景下的最佳设置是什么?
12.RAG:你介绍一下RAG 是什么?最难的地方是哪?文档切割策略有哪些?怎么规避语义被切割掉的问题?多路召回是什么?文档怎么存的?粒度是多大?用的什么数据库?为啥要用到图数据库?向量数据库的对比有没有做过?Qdrant 性能如何?量级是多大?有没有性能瓶颈?怎么规避大模型的幻觉?微调和 RAG 的优劣势?怎么量化你的回答效果?例如检索的效果、回答的效果。
13.workflow:怎么做的任务拆分?为什么要拆分?效果如何?怎么提升效果?
📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
全部评论
楼主是校招吗?项目是放的什么呢?
点赞 回复 分享
发布于 2025-08-31 19:55 广东
为什么感觉这问的好简单,我刚自学两天的都会
点赞 回复 分享
发布于 2025-08-03 05:51 河南
大模型应用是不是不太卡学历
点赞 回复 分享
发布于 2025-08-03 05:36 河南

相关推荐

Claude Code 51 万行源码泄露,是一场低级失误引发的行业地震,更是一次免费的技术普惠。它证明:顶级 AI 编程助手≠大模型堆参数,而是架构设计 + 工具编排 + 上下文管理 + 安全机制的综合工程。从六层架构到 Multi-Agent、智能压缩,这套设计已经成为 AI Coding Agent 的事实标准。1.用户交互层:终端 UI,自研引擎不卡技术:React + 自研 Ink 渲染引擎(重写 Reconciler,80 + 文件)。核心:解决 AI 流式输出(每秒几十次更新)的卡顿问题,用双缓冲渲染实现 16ms 级流畅刷新。形态:CLI 命令行、支持彩色 / 滚动 / 实时编辑、多面板布局。2. 命令与技能层:100 + 斜杠命令,降低门槛作用:把复杂 Agent 能力包装成/commit、/diff、/tasks、/agents等Slash 命令,开发者不用记复杂语法。能力:覆盖 Git 工作流、多 Agent 管理、任务调度、外部工具接入(MCP 协议)。3. 核心引擎层(大脑):QueryEngine + 工具 + 权限三驾马车这是 Claude Code 的灵魂,4.6 万行代码的 QueryEngine 是绝对核心。QueryEngine:对话编排中枢,负责任务拆解、思维链、工具选择、循环重试、结果汇总,把自然语言转成可执行步骤。工具系统:定义 40 + 标准工具(文件、Bash、Git、搜索、子 Agent),支持动态扩展、并行调用。权限框架:细粒度工具审批(自动 / 手动确认)、危险命令黑名单(rm -rf)、沙箱降权、审计日志。4. 服务层:对接大模型与外部能力核心服务:claude.ts封装所有 Anthropic API 通信,管理请求 / 响应 / 长连接、流式输出。外部集成:MCP 协议(Model Context Protocol)接入第三方工具、Git/GitHub API、文件系统、终端命令。5. 上下文与记忆层:解决 AI “失忆”,长对话不崩Claude Code 最惊艳的设计之一 ——四层记忆 + 智能压缩,支持超长会话、项目级理解。系统提示(claude.md):项目级规则(技术栈、规范、风格)。目录状态:代码树结构、关键文件、依赖关系。对话摘要:历史压缩,保留关键信息、剔除冗余。实时上下文:工具调用最新结果、当前编辑内容。压缩机制:上下文用到 75%~92% 时自动触发,按信息密度(代码占比)优先压缩低价值内容,避免 Token 爆炸。6. 基础设施层:运行底座运行时:Bun(非 Node.js)—— 更快启动、更低内存、原生 TS 支持。状态管理:React Hooks 全局状态、文件持久化、跨会话记忆。安全沙箱:本地权限隔离、命令白名单、操作审计。三、藏在代码里的 5 大黑科技:为什么 Claude Code 比普通 AI 助手强?1. Multi-Agent 蜂群协作:一个需求,一群 AI 干活泄露代码曝光了未发布的多 Agent 系统—— 彻底告别 “单个 AI 串行干活”。主 Agent(协调器):拆解任务、分发、汇总结果。子 Agent(分工):前端、后端、测试、文档各守一职,独立上下文、并行执行。通信:共享消息总线,直接对话、无需人工中转。效果:200k Token 任务拆成 3 个 70k 并行,速度 ×3、质量更高、不丢上下文。2. 双模式推理引擎:快任务秒回,复杂任务深度啃快速路径:轻量子模型,延迟 < 50ms,处理简单查询(解释代码、查函数)。深度路径:全模型 + 多阶段推理 + 工具循环,支持7 小时 + 无中断代码重构。3. Hook 自动化:开发流程 “自动驾驶”事件驱动触发器,7 类核心 Hook(文件编辑、消息、工具 / 任务前后),改 JSON 就能配置自动化:改测试→自动跑 Lint;提交前→自动跑测试;写入文件→自动规范校验。4. 代理式搜索(Agentic Search):不上传代码库,更安全传统助手(Copilot)要把整个代码库上传云端索引,隐私风险大。Claude Code:按需调用工具,只读需要的文件、本地处理,不把全库发云端。5. 反竞争防御:偷偷塞 “假工具”源码曝光:每次 API 调用会混入几个假工具—— 专门污染偷数据训练竞品的人,属于 Anthropic 的 “商业防御黑科技”。
Claude Code泄...
点赞 评论 收藏
分享
04-15 19:50
已编辑
吉林大学 golang
查看15道真题和解析
点赞 评论 收藏
分享
之前已经电话面过,这回为正式一面。一、 实习项目拷打实习,不方便透露;二、 高并发演进与 MQ 消息中间件1. 性能优化演进、详细描述 AI 用例缺陷审查任务的优化过程面对 1~2 亿条msg的突发消息洪峰(MQ 压力极大),除了单机单线程处理,还有什么更好的架构级解决方案?2. RabbitMQ vs RocketMQ 技术选型请对比 RabbitMQ 和 RocketMQ 的底层架构与优缺点。这两种 MQ 分别适用于什么样的业务场景?RocketMQ 的 ACK 机制和消息重发机制是怎样的?如何在这两种 MQ 中实现顺序消费?如何支持分布式事务消息?三、 AI Agent 与 RAG 架构设计1. RAG的痛点与优化如何解决 RAG 检索出来的知识忠实度不够、回答有偏差的问题?对于长文档(如 200~300M 包含图片的文档),Chunk(文本块)的切分策略是怎样的?大模型上下文窗口变大后(如从 256K 提升至 1M),如何解决“中间遗忘 (Lost in the middle)”的问题?2. Agent 编排与大模型框架在简单的问答任务和复杂的配置任务中,分别采用了哪种 Agent 架构?MAS 多智能体架构在处理复杂任务时有什么明显的缺点?为什么选择 Spring AI 框架?在实际使用中发现它有什么缺陷?四、 场景架构题与 AI 评测机制1. Agent 评测体系 (Eval)你们通过哪些指标来评测 Agent 的表现?如何定义和评判一个回答是否是“高分回答”?2. 真实大厂高容错场景设计场景描述: 如果将你的 AI 配置助手放在天猫商家/运营的真实环境中,面对成千上万的用户请求,必须保证极高的容错率和准确率。同时,真实用户的反馈收集率通常极低(万分之几)。问题要求: 在此背景下,如何升级你的系统架构?如何进行自动化的投放与评测闭环?【无论过没过,双非本科能面淘天已经非常感谢🙏🙏🙏】
查看16道真题和解析
点赞 评论 收藏
分享
评论
14
137
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务