信雅达 AI Agent开发一面
1. 自我介绍
2. 项目拷打
3. 你实习做了什么 有什么提升 详细说说
4.Transformer 为什么适合做大模型底座?
Transformer 适合做大模型底座,核心原因是 并行能力强、长距离依赖建模能力强、扩展性好。RNN 按时间步串行处理,训练效率低,而且长距离依赖容易衰减;Transformer 使用 Self-Attention 直接建模任意位置之间的关系,训练时可以并行处理整段序列,所以更适合大规模预训练。现在大部分大模型都以 Transformer 为核心结构。
5. Self-Attention 的公式是什么?
输入 (X) 先映射成 Query、Key、Value:

注意力计算公式是:

其中 (QK^\top) 表示当前位置和其他位置之间的相关性,除以 (\sqrt{d_k}) 是为了避免数值过大,使 softmax 更稳定。最后再对 (V) 做加权求和,得到当前位置融合上下文后的表示。
6. 为什么很多模型都用 RoPE?
RoPE 是旋转位置编码。传统位置编码通常是把位置信息直接加到 embedding 上,而 RoPE 是通过对 (Q) 和 (K) 做旋转变换,把位置信息编码到注意力计算里。这样更适合表示相对位置信息,在长文本建模时通常比绝对位置编码更稳定,所以现在很多大模型都会用 RoPE。
7. 什么是 KV Cache,为什么能提升推理速度?
自回归生成时,如果每一步都把之前所有 token 的 Key 和 Value 重新算一遍,推理会非常慢。KV Cache 的做法是把历史 token 的 K、V 缓存下来,后续生成新 token 时只计算当前 token 的 Q、K、V,然后复用过去的缓存。这样就避免了重复计算,推理速度会明显提升。它本质上是 用显存换速度。
9. 什么是 AI Agent?
AI Agent 不是单纯的一问一答模型,而是一个能够围绕目标进行理解、规划、调用工具、执行动作、接收反馈并继续下一步的系统。大模型负责理解和推理,工具模块负责和外部系统交互,工作流负责控制流程,记忆模块负责保存上下文和状态。所以 Agent 的核心不只是“会回答”,而是“会完成任务”。
10. Agent 和普通 RAG 有什么区别?
RAG 的核心是 先检索,再生成,重点在于把外部知识补给模型。Agent 不只是查资料,它还要根据任务动态决定要不要调用工具、调用哪个工具、是否继续执行下一步。所以 RAG 更偏知识增强问答,Agent 更偏任务执行系统。很多实际项目里会把两者结合,RAG 提供知识,Agent 做决策和动作执行。
11. Function Calling 的本质是什么?
Function Calling 的本质是把工具能力结构化地暴露给模型,让模型输出的不只是自然语言,而是“调用哪个函数、参数是什么”。这样原本不稳定的文本调用就变成了可控的结构化调用,工具选择和参数传递都会更稳定。
tools = [
{
"name": "get_weather",
"description": "查询指定城市天气",
"parameters": {
"type": "object",
"properties": {
"city": {"type": "string", "description": "城市名"}
},
"required": ["city"]
}
}
]
模型如果要调用工具,通常会输出类似:
{
"name": "get_weather",
"arguments": {
剩余60%内容,订阅专栏后可继续查看/也可单篇购买
本专栏聚焦 AI-Agent 面试高频考点,内容来自真实面试与项目实践。系统覆盖大模型基础、Prompt工程、RAG、Agent架构、工具调用、多Agent协作、记忆机制、评测、安全与部署优化等核心模块。以“原理+场景+实战”为主线,提供高频题解析、标准答题思路与工程落地方法,帮助你高效查漏补缺.
