大模型常考面试题100道(第26-50道)

这份题库不是随便凑出来的 100 道题,而是从大量面经和题目里 筛出来的高频题。我整理了上百套校招、实习、校招的大模型相关面试题,又结合公开平台上反复出现的问题,把那些 出现次数最多、覆盖岗位最广、面试最容易问到 的内容统一收拢,最后形成这套 大模型常考面试题100道

26. AI Agent 的核心组成有哪些?

答:一个完整的 Agent 一般至少有这几部分:大模型本身、任务规划、工具调用、记忆模块、执行控制和结果整理。大模型负责理解和推理,规划模块负责决定下一步做什么,工具模块负责和外部系统交互,记忆模块负责保留用户偏好和任务状态,执行控制负责重试、终止和异常处理。真正上线的 Agent 往往还会加权限校验、日志观测和工作流兜底,不然很难稳定。

27. Agent 和 Workflow 的区别是什么?

答:Workflow 更像固定流程,输入到哪一步、调用哪个接口、输出什么格式,通常都是预先设计好的。Agent 更强调动态决策,它会根据上下文判断该不该调用工具、调用哪个工具、是否继续执行。所以 Workflow 适合规则明确、路径稳定的任务,Agent 适合开放任务、多轮推理和步骤不固定的场景。很多实际系统并不是二选一,而是 Agent 和 Workflow 混合,用 Workflow 做边界控制,用 Agent 做灵活决策。

28. Function Calling 的本质是什么?

答:Function Calling 的本质是把工具能力结构化地暴露给模型,让模型输出的不再只是自然语言,而是“我要调用哪个函数、传什么参数”。这样可以把原本不稳定的自由文本调用变成一个更受控的结构化协议。它的价值主要体现在两点,一是工具选择更稳定,二是参数解析更可靠。在 Agent 场景里,这个能力几乎是基础设施。

29. Prompt Engineering 真正解决的是什么问题?

答:Prompt 主要解决的是角色约束、任务边界、输出格式和行为规则的问题。比如告诉模型什么时候应该调用工具,什么时候必须拒答,输出必须是什么 JSON 格式,没有依据时能不能猜。它能明显提高稳定性,但它解决不了所有问题。如果根因在知识缺失、召回不准、工具接口不稳,那再怎么调 Prompt 收益都有限。

30. CoT 是什么?为什么它有时候能提升效果?

答:CoT 就是 Chain of Thought,也就是让模型按步骤展开推理过程。它之所以有用,是因为复杂任务直接一步到位容易跳步、漏条件或者推错,中间加入显式推理过程后,模型更容易把任务拆开。尤其在数学、逻辑、多步推断和工具规划这类问题上,CoT 往往会提升正确率。不过线上系统不一定总把完整推理过程展示给用户,很多时候只在内部使用。

31. ReAct 是什么?

答:ReAct 可以理解成 Reason + Act,也就是一边推理,一边执行动作。它不是先把所有步骤想完再做,而是在每一步推理之后,根据当前状态去调用工具、获取反馈,再继续下一步。这种模式特别适合开放任务,因为很多时候问题不是一开始就能全想清楚,必须边查边做。Agent 系统里很多设计都能看到 ReAct 的影子。

32. 什么是规划型 Agent?

答:规划型 Agent 是先把大任务拆成若干子任务,再按顺序或依赖关系逐步执行。它更像“先有计划,再去做”,适合复杂任务,比如写报告、做调研、跨多个工具完成目标。相比只做单步决策的 Agent,规划型 Agent 更容易处理长链路任务,但复杂度也更高。如果规划错了,后面的执行往往都会被带偏。

33. Agent 里的 Tool Routing 是什么?

答:Tool Routing 就是工具路由,也就是在多个工具里先筛出最可能合适的那几个,再让模型进一步决策。这样做的目的很直接,工具太多时,如果全部暴露给模型,误调用概率会升高,推理成本也会增加。先缩小候选范围,可以提高工具选择准确率,也能降低上下文负担。工具越多,Tool Routing 的价值越明显。

34. 结构化输出为什么总是不稳定?

答:因为模型本质上是语言生成器,它天然更擅长生成“像样的文本”,不天然擅长严格遵守编程语法。所以你让它输出 JSON,它经常会多说一句解释、漏个逗号、字段名改一下,或者不同轮次格式漂移。解决这个问题通常要靠三层手段:Prompt 约束、Schema 约束、工程校验。如果业务要求很严,就不能只靠一句“请输出 JSON”。

import json

def parse_result(text):
    try:
        re

剩余60%内容,订阅专栏后可继续查看/也可单篇购买

AI-Agent面试实战专栏 文章被收录于专栏

本专栏聚焦 AI-Agent 面试高频考点,内容来自真实面试与项目实践。系统覆盖大模型基础、Prompt工程、RAG、Agent架构、工具调用、多Agent协作、记忆机制、评测、安全与部署优化等核心模块。以“原理+场景+实战”为主线,提供高频题解析、标准答题思路与工程落地方法,帮助你高效查漏补缺.

全部评论

相关推荐

给我面没招了,感觉自己好菜、面试很难,还是要多多练习1.项目拷打2.你的知识库数据是如何清洗和构造的?如果数据质量参差不齐会对 RAG 系统产生哪些影响?3.文档切分策略是如何设计的?chunk size 和 overlap 会如何影响召回质量和生成效果?4.如果用户的问题在知识库中确实存在,但系统经常没有召回正确文档,你会如何排查?5.如果检索到的文档是正确的,但模型最终生成的答案仍然是错误的,你会如何定位问题?6.实际系统中,如果召回结果经常语义相似但事实不相关,你会如何优化检索模块?7.如果一个问题需要跨多个文档的信息才能回答,你的 RAG 系统如何处理这种情况?8.在 RAG 系统中如何判断问题出在检索模块还是生成模块?9.请详细说明 Transformer 从输入 token 到输出 logits 的完整计算流程。10.FFN 层为什么采用“先升维再降维”的结构,这种设计对模型表达能力有什么作用?11.MHA、MQA、GQA 在推理阶段的 KV Cache 占用和计算效率上有什么差异?12.为什么推理阶段 KV Cache 只缓存 K 和 V,而不缓存 Q?13.RoPE 的核心原理是什么,它在长上下文场景下会遇到什么问题?14.instruction tuning 中多轮对话数据训练时,loss mask 应该如何设计?15.如果 SFT 之后模型在特定任务上能力增强,但通用能力明显下降,你会如何解决?16.LoRA 的低秩分解为什么能够逼近全参数微调的效果?17.如果 LoRA 的 rank 设置不合理,在模型表现上会出现什么现象?18.DPO 训练后模型输出明显变长,在实际系统中你会如何处理?19.如果对齐之后模型变得过于保守,经常拒绝回答,你会如何调整训练策略?20.大模型出现复读机现象通常由哪些因素导致?
点赞 评论 收藏
分享
03-30 18:50
门头沟学院 Java
给我面没招了,发点面经攒攒人品~1. 实习拷打2. 项目拷打3. 你的检索是否基于向量实现,搭建完整的 RAG 系统会涉及哪些核心部分?4. RAG 项目的文档上传和分块是怎么实现的?5. 向量检索召回的单次耗时是多久,有没有用到Rerank模型?6. 你如何评估检索召回内容与用户问题的匹配度,有没有做相关的效果评估?7. 你对 Agent 的理解是什么,它包含哪些核心模块?8. 是否了解 Agent 的设计范式,例如ReAct 范式?9. 你的 Agent 循环一般多少步可以完成任务,有没有出现过达到最大步数仍无法完成的情况?10. 你的 Agent 目前接入了哪些工具?11. 你是如何约定并约束大模型进行工具调用的?12. 你的项目推流是否使用 SSE?13. 你的 Agent 编排流程中有没有做 Plan 阶段?14. 从协议层面,介绍 SSE、WebSocket 与 HTTP 的区别和关联?15. 项目为什么限制每个用户只能上传单个文件?16. 项目的图像识别如何实现的,为什么不用多模态大模型,而选择传统的识别模型?17. 你的项目中用到了哪些大语言模型?18. 请介绍 Go 语言的并发和其他语言并发的区别?19. Goroutine 是什么,请介绍一下它的核心原理?20. 你对锁的理解是什么,锁是解决什么问题的?21. 日常开发中用哪种锁更多,还了解哪些后台开发常用的锁?22. 多机器、多进程场景下会涉及到哪些锁,是否了解分布式锁?23. 你对 MCP、Function Call、A2A 分别是怎么理解的?24. 你的项目接入了哪些 MCP 服务?有没有本地手写过 MCP 服务?25. 你日常开发会借助哪些 AI 工具?26. 使用这些工具的心得以及是否有写过相关的 command/skill?27. Claude Code 的实现原理?28. 是否了解OpenClaw以及了解它的实现原理?
LambertCla...:Claude Code实现原理都来了,难道是预测到了这波源码泄露
查看26道真题和解析
点赞 评论 收藏
分享
继续来分享下最近的面经~欢迎友好讨论,信息共享1. Transformer 为什么能替代 RNN 成为大模型主流架构?2. Self-Attention 的计算过程是什么,时间复杂度为什么高?3. Multi-Head Attention 的作用是什么,为什么要分多个头?4. 位置编码为什么必要,绝对位置编码和相对位置编码有什么区别?5. 什么是 KV Cache,它为什么能显著提升推理效率?6. Prefix Cache 和 KV Cache 有什么区别,分别适合什么场景?7. 为什么大模型推理通常是 memory bound,而不是 compute bound?8. Batch 推理和单请求推理的吞吐与延迟 tradeoff 是什么?9. Continuous Batching 解决了什么问题,为什么对推理服务很重要?10. Prefill 和 Decode 两个阶段的性能瓶颈分别在哪里?11. 大模型采样里的 temperature、top-k、top-p 分别会怎样影响输出?12. 贪心解码、束搜索、随机采样分别适合什么生成任务?13. 重复惩罚和长度惩罚分别是为了解决什么问题?14. 为什么模型有时会出现“复读机”现象,通常怎么缓解?15. 量化是什么,INT8、INT4、FP16 的核心区别是什么?16. 推理量化会对模型效果造成什么影响,如何评估是否值得量化?17. 张量并行、流水线并行、数据并行分别适合哪个阶段?18. 单机多卡部署大模型时,通信开销主要来自哪里?19. 为什么 GPU 显存是大模型部署的核心约束之一?20. 模型参数量、上下文长度、并发数三者之间是什么关系?21. 什么是 MoE 模型,为什么它能在参数规模很大时控制推理成本?
查看21道真题和解析
点赞 评论 收藏
分享
评论
1
4
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务