滴滴 AI Agent开发 一面
1. 自我介绍
2. 项目拷打
3. 什么是 AI Agent?
AI Agent 是一种以目标驱动的智能系统,不只是根据输入生成文本,而是能够围绕任务目标进行理解、规划、调用工具、获取外部信息、根据反馈调整行为并完成任务。它的核心组成一般包括大模型、记忆、规划、工具系统和执行控制。
和普通聊天模型相比,普通模型更偏向一问一答,Agent 更强调任务闭环。比如查询订单、生成报表、分析异常、调用接口、触发流程,这些都更接近 Agent 的典型工作方式。
4. Agent 和普通 RAG 的区别是什么?
RAG 的核心是检索增强生成,重点解决模型知识不足、知识过时和领域知识缺失的问题。流程一般是先检索,再把检索结果和问题一起输入模型,最后生成答案,所以它本质上还是问答范式。
Agent 不只是做问答,它可以根据目标动态决定要不要检索、要不要调用工具、是否继续下一步,还能处理执行失败、重新规划路径。RAG 可以是 Agent 的一个模块,但 Agent 的边界更大。可以理解为,RAG 偏向“补知识”,Agent 偏向“做任务”。
5. Function Calling 的本质是什么?
Function Calling 的本质是把工具调用变成结构化输出,而不是让模型生成一段模糊自然语言再让程序自己猜。模型只需要决定调用哪个函数、传哪些参数,程序侧负责校验、执行和兜底。
这样做的好处是稳定、可控、可校验,尤其适合查数据、调接口、执行动作这类场景。否则模型自由发挥时,容易出现参数格式不对、字段缺失、工具名乱写的问题。
tools = [
{
"name": "get_order_status",
"description": "查询订单状态",
"parameters": {
"type": "object",
"properties": {
"order_id": {"type": "string"}
},
"required": ["order_id"]
}
}
]
期望模型输出:
{
"name": "get_order_status",
"arguments": {
"order_id": "DD20250324001"
}
}
6. vLLM 的核心优势是什么?
vLLM 的核心优势是高吞吐和高效显存利用。它的关键设计是 PagedAttention,把 KV Cache 按页管理,减少传统推理服务里常见的显存碎片和内存浪费问题。对于在线服务,尤其是多并发、长短请求混合的场景,这种设计效果很明显。
另一个优势是连续批处理。传统静态 batch 往往要等一批请求处理完才能插入下一批,vLLM 可以更灵活地调度新请求,所以整体吞吐更高,更适合生产环境的大模型推理服务。
7. RAG 的 chunk 切分策略是什么?
chunk 切分的目标是让每一段内容既足够完整又足够精细,方便检索。如果切得太大,会带入很多无关信息,降低检索精度;如果切得太小,语义被打碎,召回到的片段可能无法独立支撑答案。
常见做法是优先按标题、段落、列表、语义边界切分,再增加一定 overlap,避免关键信息落在边界上被切开。FAQ、接口文档、制度文档这类结构化内容更适合按结构切,长文本一般适合按 token 长度配合 overlap 切。
def split_text(text, chunk_size=300, overlap=50):
chunks = []
start = 0
while start < len(text):
end = min(len(text), start + chunk_size)
chunks.append(text[start:end])
if end == len(text):
break
start = end - overlap
return chunks
8. RAG 检索的准确率怎么统计?
通常不会只看一个“准确率”,而是看多个检索指标。最常见的是 Recall@K、Precision@K、MRR、NDCG。Recall@K 看的是正确文档有没有出现在前 K 个召回结果里;Precision@K 看的是前 K
剩余60%内容,订阅专栏后可继续查看/也可单篇购买
本专栏聚焦 AI-Agent 面试高频考点,内容来自真实面试与项目实践。系统覆盖大模型基础、Prompt工程、RAG、Agent架构、工具调用、多Agent协作、记忆机制、评测、安全与部署优化等核心模块。以“原理+场景+实战”为主线,提供高频题解析、标准答题思路与工程落地方法,帮助你高效查漏补缺.

查看5道真题和解析