RAG、RAG 类型、Agent 底层原理、多 Agent。

#面试官最爱问的 AI 问题是......#

一、RAG 是什么?(面试必问)

RAG = 检索增强生成(Retrieval-Augmented Generation)
一句话:
先从外部知识库检索相关信息,再把信息喂给大模型生成答案。

作用:

• 解决大模型不知道新知识、幻觉的问题

• 不用重新训练模型,成本低、安全可控

RAG 核心流程(背这 4 步)

1. 文档切分(Chunk)

2. 向量化(Embedding)

3. 存入向量库

4. 用户提问 → 检索相关片段 → 给 LLM 生成答案

RAG 常见类型(面试高频)

1. 朴素 RAG
最简单:切分→向量→检索→生成。
适合简单问答。

2. 高级 RAG(优化版)

◦ 召回前:查询优化、重写

◦ 召回中:多路召回、混合检索(关键词+向量)

◦ 召回后:重排序(Rerank)

3. RAG + 知识库管理
带文档更新、去重、过滤、元数据过滤。

4. 模块化 RAG
可插拔:不同场景用不同检索策略。
二、Agent 底层原理(面试官最爱深挖)

一句话:
Agent = LLM 做大脑 + 工具调用 + 记忆 + 反思 + 规划

核心 5 组件(背这个)

1. 大脑(LLM)
负责思考、决策、理解任务。

2. 记忆(Memory)

◦ 短期记忆:上下文

◦ 长期记忆:向量库/数据库

3. 工具(Tools)
搜索、代码解释器、API、函数调用(FC)。

4. 规划(Planning)
拆解任务、多步推理、自主决定怎么做。

5. 反思(Reflection)
检查结果对不对,错了就修正。

标准执行流程(面试直接说)

1. 理解用户目标

2. 思考:我要做什么?需要哪些工具?

3. 调用工具获取信息

4. 继续推理,直到完成目标

5. 输出最终结果
三、多 Agent 是什么?

多 Agent = 多个智能体分工协作完成复杂任务。

特点

• 每个 Agent 有专属角色

• 互相通信、分工、协作

• 能处理复杂、多步骤、跨领域任务

常见架构

1. 集中式
有一个“主管 Agent”分配任务。

2. 分布式
无中心,Agent 之间互相沟通。

3. 分层式
上层决策,下层执行。

典型应用

• 代码开发团队(产品、前端、后端、测试)

• 内容创作团队

• 企业自动化流程
四、面试高频三连问(标准答案)

1. RAG 和 Fine-tuning 区别?

◦ RAG:外挂知识库,不改模型,安全、实时、成本低。

◦ 微调:改模型权重,适合固定风格/专业领域,成本高。

2. Agent 和普通 LLM 区别?

◦ LLM:你问啥它答啥,被动。

◦ Agent:有目标、会思考、会用工具、自主完成任务。

3. Agent 和工作流区别?

◦ 工作流:固定步骤,按流程跑。

◦ Agent:动态思考,自主决策下一步。
如果你要,我可以直接帮你整理成:
「AI 前端面试 10 分钟速背版」
你拿去背,面试基本稳过。#牛客AI配图神器#
全部评论

相关推荐

一、先破题:面试官到底想听什么?别上来就念定义,先抓核心:他想知道你懂不懂 RAG 的本质、会不会落地、他想看到你的深度思考。一句话开场就能拉好感:“RAG 本质就是给大模型‘外挂知识库’,让它先查资料再回答,既不用重新训模型,又能减少幻觉,特别适合企业私有数据场景。”二、核心回答框架:3 步讲 RAG 全流程1️⃣ 先讲原理:为什么要用 RAG?传统大模型的知识全靠预训练,新数据、企业内部数据它根本没见过,一问就容易瞎编。RAG 的思路很朴素:生成答案前先去外部知识库搜一遍,把相关资料塞给模型当参考,让它 “照着资料说”。这样既避免了微调的高成本,又能保证答案基于真实数据,还能随时更新知识库,很灵活。2️⃣ 再讲落地:项目里怎么搭 RAG 链路?别只说 “召回 - 过滤 - 生成”,要讲具体做了什么、用了什么工具,显得你真干过:第一步:搭知识库(离线准备)先把企业文档 / 业务数据切分:按语义段落拆,控制每段 token 数,太粗太细都影响检索效果用 Embedding 模型(比如 BGE、text-embedding-ada-002)把文本转成向量存到向量库(Milvus/FAISS/Pinecone 都行),方便后面做相似度搜索举个例子:我们做企业知识库时,会把长文档按章节 + 段落拆分,每段控制在 300token 左右,既保证信息完整,又不会太冗余。第二步:用户提问时的检索阶段先把用户问题也转成向量,去向量库做相似度检索,捞出 Top-K 相关文档关键:加个 rerank 模型(比如 CrossEncoder)做二次排序,把最相关的片段往前排,避免 “看似相关实则没用” 的文档干扰还可以加 query rewriting 优化提问,比如把口语化问题转成更适合检索的句式,提升召回准确率第三步:生成答案把检索到的文档片段 + 用户问题,拼进 Prompt 里,给模型明确指令:“请仅基于以下参考资料回答问题,不要编造内容,如果资料里没有答案就说‘未找到相关信息’。”喂给大模型生成答案,这样输出就完全基于检索到的真实数据,不会瞎编。3️⃣ 最后补深度:RAG 的关键与坑讲完流程,补几句踩坑经验,瞬间拉开差距:核心难点:文档切分、检索质量、Prompt 设计切分太粗:信息太杂,检索不准;太细:上下文断裂,模型看不懂检索差:哪怕模型再强,给错资料也会生成垃圾答案,所以 rerank 和 query rewriting 特别重要Prompt 要 “严”:必须约束模型只能用参考资料,不然它还是会忍不住瞎编局限性也要提:依赖 Embedding 质量,选不对模型检索直接拉胯长上下文会推高成本,太多参考资料反而让模型混乱实时性问题:知识库更新后要重新生成向量,不能秒级同步三、面试加分小技巧提架构:主动说 “我们用的是召回 - 过滤 - 生成三段式架构”,显得你体系化提优化:聊 rerank、query rewriting、多轮检索这些进阶手段,证明你不是只会基础版提场景:结合具体项目说,比如 “在企业客服知识库 / 内部文档问答里用 RAG”,比空泛讲理论更有说服力
查看11道真题和解析
点赞 评论 收藏
分享
评论
2
4
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务