个人技能&项目重难点思考
#简历上如何体现你的“AI”能力?#
一、个人技能:AI 工程化能力矩阵
见下图⬇️
------
二、项目难点深度阐述(STAR 话术参考)
2.1 模型选型:不只是“会用”,而是“会选”
技术要点:
• 文生图/视频:SDXL(开源可控)、Midjourney(艺术质感)、Sora(长视频逻辑)。选型关键看 Latency(延迟) 与 Cost(成本)。
• 多模态:GPT-4V(强推理)、Gemini Pro Vision(性价比)。难点在于视觉问答(VQA)的 prompt 构造。
• 编码模型:DeepSeek-Coder(开源首选)、Claude 3.5 Sonnet(代码解释强)。选型依据是 Context Length(上下文长度) 和 Repo 理解能力。
2.2 规划:ReAct 编排机制
技术原理:
ReAct = Thought (推理) → Act (行动) → Observe (观察)。它通过显式生成推理链(“我需要先查A,再查B”),解决了 LLM 的“黑箱决策”问题,让 Agent 具备可解释性 。
落地难点:
• 循环失控:Agent 容易陷入死循环(如一直搜索不到结果)。
• 解决策略:设置 Max Iteration(最大步数) 和 Self-Correction(自我修正) 机制。例如,在 Thought 步骤强制要求“如果失败,下一步策略是什么”。
2.3 记忆:从“聊天记录”到“工作记忆”
架构设计:
• 短期记忆:存储在内存或 Redis 中,仅保留最近 3-5 轮对话,用于维持会话连贯性。
• 长期记忆:基于 RAG + 向量数据库(如 Chroma, Milvus),存储项目文档、用户画像,实现跨会话的知识复用 。
Agentic RAG 实战难点:
1. 上下文过长:采用 “渐进式加载”(Progressive Loading)。先检索摘要,Agent 判断需要详情时再拉取全文,而非一次性灌入所有内容。
2. 噪音控制:严禁将工具调用的中间结果(如 raw JSON)直接塞入上下文。必须经过 Extract-Transform 步骤,只保留关键字段,避免干扰 LLM 的注意力 。
2.4 工具调用:MCP 底层原理与实战
MCP 核心流程:
MCP 通过 JSON-RPC 2.0 协议,在 Client(模型端) 和 Server(工具端) 间建立标准化通信 。
1. 初始化:Client 向 Server 发送 initialize,协商能力(Tools/Resources)。
2. 调用:Client 发送 callTool 请求,Server 执行并返回结构化结果。
3. 传输:本地用 stdio(低延迟),云端用 SSE/HTTP(分布式)。
自定义 Skills 技巧:
• Skill 封装:将“查数据库”封装为 query_database(sql),而非直接让 LLM 拼接 SQL 字符串。
• 权限与安全:在 MCP Server 层做参数校验和权限拦截,防止 LLM 生成恶意指令。
—————————
1. MCP 是未来:它解决了工具生态碎片化问题。以前每个模型都要写一套插件,现在工具只需实现一次 MCP Server,即可被所有客户端(Claude, Cursor)复用 。
2. Agentic RAG > 传统 RAG:传统 RAG 是“检索→回答”的管道,而 Agentic RAG 是“观察→决策→检索→反思→行动”的闭环,具备自主决策能力 。
最后建议:在介绍项目时,务必强调你如何解决“Token 成本”和“幻觉控制”这两个工程核心痛点,这比单纯罗列技术栈更有说服力。
一、个人技能:AI 工程化能力矩阵
见下图⬇️
------
二、项目难点深度阐述(STAR 话术参考)
2.1 模型选型:不只是“会用”,而是“会选”
技术要点:
• 文生图/视频:SDXL(开源可控)、Midjourney(艺术质感)、Sora(长视频逻辑)。选型关键看 Latency(延迟) 与 Cost(成本)。
• 多模态:GPT-4V(强推理)、Gemini Pro Vision(性价比)。难点在于视觉问答(VQA)的 prompt 构造。
• 编码模型:DeepSeek-Coder(开源首选)、Claude 3.5 Sonnet(代码解释强)。选型依据是 Context Length(上下文长度) 和 Repo 理解能力。
2.2 规划:ReAct 编排机制
技术原理:
ReAct = Thought (推理) → Act (行动) → Observe (观察)。它通过显式生成推理链(“我需要先查A,再查B”),解决了 LLM 的“黑箱决策”问题,让 Agent 具备可解释性 。
落地难点:
• 循环失控:Agent 容易陷入死循环(如一直搜索不到结果)。
• 解决策略:设置 Max Iteration(最大步数) 和 Self-Correction(自我修正) 机制。例如,在 Thought 步骤强制要求“如果失败,下一步策略是什么”。
2.3 记忆:从“聊天记录”到“工作记忆”
架构设计:
• 短期记忆:存储在内存或 Redis 中,仅保留最近 3-5 轮对话,用于维持会话连贯性。
• 长期记忆:基于 RAG + 向量数据库(如 Chroma, Milvus),存储项目文档、用户画像,实现跨会话的知识复用 。
Agentic RAG 实战难点:
1. 上下文过长:采用 “渐进式加载”(Progressive Loading)。先检索摘要,Agent 判断需要详情时再拉取全文,而非一次性灌入所有内容。
2. 噪音控制:严禁将工具调用的中间结果(如 raw JSON)直接塞入上下文。必须经过 Extract-Transform 步骤,只保留关键字段,避免干扰 LLM 的注意力 。
2.4 工具调用:MCP 底层原理与实战
MCP 核心流程:
MCP 通过 JSON-RPC 2.0 协议,在 Client(模型端) 和 Server(工具端) 间建立标准化通信 。
1. 初始化:Client 向 Server 发送 initialize,协商能力(Tools/Resources)。
2. 调用:Client 发送 callTool 请求,Server 执行并返回结构化结果。
3. 传输:本地用 stdio(低延迟),云端用 SSE/HTTP(分布式)。
自定义 Skills 技巧:
• Skill 封装:将“查数据库”封装为 query_database(sql),而非直接让 LLM 拼接 SQL 字符串。
• 权限与安全:在 MCP Server 层做参数校验和权限拦截,防止 LLM 生成恶意指令。
—————————
1. MCP 是未来:它解决了工具生态碎片化问题。以前每个模型都要写一套插件,现在工具只需实现一次 MCP Server,即可被所有客户端(Claude, Cursor)复用 。
2. Agentic RAG > 传统 RAG:传统 RAG 是“检索→回答”的管道,而 Agentic RAG 是“观察→决策→检索→反思→行动”的闭环,具备自主决策能力 。
最后建议:在介绍项目时,务必强调你如何解决“Token 成本”和“幻觉控制”这两个工程核心痛点,这比单纯罗列技术栈更有说服力。
全部评论
相关推荐
04-19 22:10
东北林业大学 Web前端 点赞 评论 收藏
分享
查看15道真题和解析