面试官别再问 AI 应用啦,我是真没招了

我们是如何走到这一步的

人工智能这一词出现,依然有几十年的历史,差不多每过十年就会经历一次 AI 浪潮。抛开那些繁杂的概念,只说大模型,起源可以追溯到 2017 年发布的《Attention is All Need》论文,论文提出了Transformer,给现在的 LLM(大语言模型) 奠定了理论基础。

理论到落地通常需要很久的时间。所以直到2022年,才有第一个应用诞生,至今AI应用访问量上都占据着榜首。

模型 & 应用

如何理解LLM

一个发光二极管,亮与暗代表1和0,这样电信号与数字信号便有了转换方式,硬件与软件有了初步合作。不过0101代码的还是不够让人类方便的理解,于是人们将一组01抽象成指令,就有了汇编。但是汇编还是有点不够直观,逐渐抽象有了更高级的语言。

可以让计算机直接与人类沟通吗?有的兄弟,有的

NLP(自然语言处理,Natural Language Processing)是 AI 人工智能的核心分支,目标是通过算法让计算机理解、处理、生成人类语言。

LLM呢,就是NLP的一个子集。也是为了能够听懂并与人类交流。

AI & NLP & LLM 关系

简单原理

当我们描述描述两个物体时,可以给他很多属性。每个属性又有一定的值,所以由各个属性维度组成的数据可以抽象在一个n维坐标系上。每一个物品,都算做一个向量。以前我们说,万物皆对象,现在也可以说,万物皆向量。

在文字上说两个物体相似,可以说属性接近。而在n维坐标系中,可以使用数学公式,求出两个向量的余弦相似度(0到1之间)。

在你向 DeepSeek 提问时,他便根据你的问题,开始推测下一个字或词(token)。用一个复杂的技术(开头所述的论文),取出下一个的概率比较大的token。直到到达最大上下文或者意图识别到很弱的信号才会终止输出。

开发应用基础

当大模型有了足够多的向量(存在于网络的知识),我们便实现了知识平权,当你想要快速了解任何领域公开的知识都很方便。这便是第一类应用,智能对话助手。

当你问他你们企业私有的知识,这就有点难为他了。不过这也很快被检索增强生成(RAG, Retrieval-augmented Generation)解决。

先将企业知识pdf、word等文档通过Embeding模型转为向量,存到向量数据库中,当提问时,会去数据库中检索,拼接完整的提问和背景,还有大模型回答

那现在,你有了更商业版的助手,它可以在客服,企业知识库等场景发挥很大作用。

但这还远远不够,如果你想将它真正嵌入业务中的一环,比如动动嘴就能填一张请假单。这时候,需要强调他的回答格式。

一个结构化的JSON,就可以将此作为一个请求,转发给对应系统,于是你完成了初级的应用开发。

但并不是所有人都懂代码,不过所有人都会懂业务,所以一些程序员之外的人也可以通过Agent(智能体)工作流来组成自己的应用的产品(coze,dify)。

更多的现代技术

以下是写Agent会用到的,比较专业,可跳过本部分。

  • MCP 模型上下文协议

大多数时候,我们还在扮演一个上下文的搬运工,有时希望在对话过程中都可以将信息传达给他。于是,便有了这样的技术,赋予大模型眼睛,手与脚。让它在运行过程中可以自由的看浏览器,查找官方文档,查看本地代码空间等。

  • A2A 智能体对智能体协议

任何接口都可以改造成MCP,但问题也随之而来。有时会无法管控他上下文的长度,造成了大量的上下文浪费。也有时怕他太过全能,在数据库MCP上删库跑路。于是,便诞生了此,有着更完善的Agent调用链的协议。

  • Skills

这是Claude对MCP副作用的一个回答。优化了 A2A 的繁重,弥补了MCP的莽撞。通过简单文字描述的流程与模型的Agent支持,让大模型的能力更为强大。

现在的 LLM 应用什么样子

背景

如今,我们看到常用的App都或多或少的上线了LLM功能。

比如,他们可以分析你的数据,给你提供更全的建议的健身App;

你可以随时向客服提问,并得到专业知识的的智能客服应用,有的甚至你可以直接让他们帮你完成某个购买商品操作;

亦或者,一个贾维斯一样的助手,可以帮你联网搜索,整理,汇报等一连串的任务。

在早期,我们还在讨论怎样使用Prompt(提示词)让大模型更聪明。后来我们为了让大模型更准确的执行某个流程,还专注去学搭建Agent 工作流。不过随着这种不确定性的工作越来越确定性,一些Prompt,Agent工作流的规范确立,这些手动提示的操作,变成了规范的Agent、应用流程。BTW,提示词还是要学一下的,有时候现有的不够满足你的一些场景。

搭建应用通解

像Coze Space和Gemini的生图功能,已不再是直接调用模型,而是有一定流程的自规划智能体。根据ReAct,CodeAct等论文的介绍,我觉得大致可以分为下面流程:

  • 思考

用户的问题或许是个很复杂的任务,我们需要拆解,这时会出现第一次调用大模型。

  • 规划

拆解子问题逐个解决,或是子计划交给其他智能体(SubAgent or multi Agent)。

  • 行动

拿到最小可执行的任务后,开始执行自己的任务。

  • 反思

这里可能会造成大模型自循环,检查是否规划的全部完成,检查最开始的任务是否解决。

ReAct 模式

未来的 AI 应用什么样子

这里没再用LLM,而是改成了AI。因为我觉得,LLM发展已经开始局限,所有的流程开始逐渐形成范式。未来一定是多AI共同协作,NLP或许只是一个入口。比如大家一直向往的具身智能机器人,排除算力电力等挑战,这全身的动作控制,一个LLM就不够用。

#聊聊我眼中的AI#
浅入浅出大模型 文章被收录于专栏

尽量让所有人都可以认识,并且使用大模型

全部评论
花哥牛逼
1 回复 分享
发布于 2025-12-02 14:39 北京
太强了,佬
点赞 回复 分享
发布于 02-03 16:55 广东
学习
点赞 回复 分享
发布于 2025-12-04 11:57 湖南
llm nlm ai
点赞 回复 分享
发布于 2025-12-03 15:26 陕西
学习
点赞 回复 分享
发布于 2025-12-03 13:44 北京
花哥太顶了
点赞 回复 分享
发布于 2025-12-02 15:33 北京
是的,LLM 输出的是离散的 Token,机器人控制需要处理的是连续的物理量,在理论上存在严重的Modality Mismatch,最好还是语义+技能+执行
点赞 回复 分享
发布于 2025-12-02 15:27 江苏
留着后面看
点赞 回复 分享
发布于 2025-12-02 14:37 山东
学习学习
点赞 回复 分享
发布于 2025-12-02 12:52 北京
原来是佬,太硬核啦
点赞 回复 分享
发布于 2025-12-02 10:30 四川

相关推荐

面试被问到“Agent”的那一刻,其实很容易露馅。不是不会答,而是——你以为自己会,但一开口,全是概念,没有结构,没有落地。我第一次被问到“什么是ReAct?”的时候,就是这样。一、我第一次被问懵:你说的Agent,到底是什么?那场面试,对方很直接:“你说你做过AI项目,那你解释一下,Agent和普通大模型调用的区别?”我当时脑子里只有几个词:自动化、智能、任务执行……但说出来很虚。后来我才意识到,Agent不是“会说话的模型”,而是“能完成任务的系统”。核心区别只有一句话:👉 大模型 = 给输入 → 出输出👉 Agent = 有目标 → 会规划 → 会行动 → 会反思 → 再行动也就是:从“回答问题”升级到“解决问题”二、什么是ReAct?(不是背定义,是理解逻辑)很多人会背一句:ReAct = Reasoning + Acting但面试官不听定义,他要你讲“它为什么重要”。你可以这么说:ReAct的本质,是让模型在**“思考”和“行动”之间循环”**。不是一口气给答案,而是像人一样:先想(Reason)再做(Act)看结果(Observe)再想(Reason)形成闭环。你可以举个例子(面试特别加分):👉 任务:分析一家公司财务状况传统模型:直接输出一段分析(但可能是胡编的)ReAct Agent:Thought:我需要收入、利润、现金流数据Action:调用数据库 / APIObservation:拿到数据Thought:收入增长但利润下降,可能成本上升Action:继续查成本结构Observation:原材料涨价Final Answer:给出完整分析重点不是步骤,而是:👉 它不假装知道,而是一步步去“找答案”这就是ReAct的价值。三、任务拆解:99%的人都答错的地方面试官接下来一般会问:“那你说说,如果让你设计一个Agent,任务怎么拆?”很多人会说:拆成几个步骤写prompt调接口这不叫拆解。真正的任务拆解,分三层:1️⃣ 目标层(Goal)不是“做什么”,而是“做到什么程度算完成”❌ 分析用户数据✅ 输出用户分层+可执行运营策略2️⃣ 子任务层(Subtasks)拆成“可执行单元”例如:数据获取数据清洗指标计算分群结论生成3️⃣ 能力映射层(Tools / Skills)每个子任务对应能力:子任务对应能力数据获取API / SQL清洗Python分析模型 or 规则输出LLM👉 这一步,才是Agent的核心因为:Agent不是“拆任务”,而是“把任务分配给不同能力”四、设计一个数分Agent(这是面试高频题)如果面试官说:“那你设计一个数据分析Agent?”你可以这样回答(直接结构化输出):🎯 1. 目标定义用户输入一句话:“帮我分析最近用户流失为什么变高”Agent输出:核心原因数据支撑建议动作🧠 2. Agent结构(关键)你可以说三层:① Planner(规划器)拆任务决定先查什么② Executor(执行器)调SQL / Python / API③ Reflector(反思器)判断结果够不够是否继续深挖👉 这一句非常加分:“我会加一个Reflection机制,避免一次性结论错误”🔧 3. 工具设计(落地感)数据库查询工具(SQL)Python分析工具指标计算模块可视化(可选)🔁 4. ReAct流程嵌入每一步都走:ThoughtActionObservation直到:👉 满足“可以解释原因 + 有证据”⚠️ 5. 风险控制(面试加分项)你可以补一句:防 hallucination(必须用真实数据)限制工具调用次数(成本控制)加缓存(性能优化)五、我后来是怎么准备这些问题的?说实话,这一块如果你只是看资料,很难形成“能说出口的结构”。我当时的问题是:👉 我懂一点,但讲不清👉 我会做一点,但没体系👉 一问就乱后来我做了一件很关键的事:我把所有“Agent相关问题”——全部写进简历项目里,然后反推回答。甚至我用了一次工具,把我写的项目拆解成:面试官可能问什么我答得哪里虚哪些点需要补那次帮我优化结构的,就是泡泡小程序AiCV简历王(只提一次),它不是简单改简历,而是把“你说不清的地方”直接暴露出来。很多时候你以为问题在“不会”,其实问题在——你没想清楚。六、面试中我被问到的Agent问题(真实高频)我整理几个你一定会遇到的:1️⃣ “Agent和Workflow的区别?”👉 核心答法:Workflow:固定流程Agent:动态决策一句话总结:👉 Workflow是“写死的流程”👉 Agent是“会自己决定下一步”2️⃣ “什么时候不该用Agent?”这个很多人答不上来。你可以说:任务简单(规则就够)成本敏感实时性要求高👉 本质:Agent不是越智能越好,而是成本是否值得3️⃣ “你怎么评估Agent效果?”高级一点的答法:成功率(任务完成)工具调用次数(效率)成本(token / API)用户满意度4️⃣ “Agent最大的问题是什么?”你可以讲三个:不稳定(输出不一致)成本高调试困难👉 再补一句:“所以我会加日志和轨迹记录(trace)来做调试”直接拉开差距。七、最后一句实话Agent面试,不是考你“会不会用AI”。是考你:👉 能不能把一个复杂问题,拆清楚,并让系统去执行很多人卡住,不是因为不会技术,而是:没结构没闭环没“像人一样思考任务”如果你只能讲“模型怎么用”,那你还在工具层。如果你能讲清:👉 目标 → 拆解 → 执行 → 反馈 → 优化那你才在“系统层”。而面试官,要的是后者。
Agent面试会问什么?
点赞 评论 收藏
分享
评论
43
135
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务