蚂蚁 AI应用开发 二面面经

暑期实习 | 时长:约65分钟
1. 个人基础情况介绍
2. 实习经历深度追问
3. 首个项目深挖:MinerU解析跨页表格时,保障表格语义完整的核心思路?简述Ragas评测框架;若Answer Relevance指标偏低,如何精准区分检索质量与模型能力的影响边界?
4. 第二个项目深究:LangGraph中State的定义逻辑与流转机制?当任务节点数量较多时,如何规避状态对象膨胀引发的内存溢出问题?长期记忆库层面,多轮对话信息提炼为结构化用户画像并入库的具体实现路径?
5. 文档切片策略:overlap参数的核心作用?如何权衡分片尺寸与上下文完整性之间的平衡关系?
6. 对GraphRAG的理解与应用认知
7. GraphRAG召回海量关联信息后,生成阶段如何借助自反思(Self-Reflection)或思维链(CoT)策略过滤检索噪声?
8. ReAct框架的核心原理,阐述其对复杂任务理解能力的提升逻辑
9. 模型调用工具出现参数幻觉、语法错误时,可采用的自动化修正手段有哪些?
10. Multi-Agent系统中心化编排模式的内涵,对比点对点架构的核心优势
11. Agent的Self-Reflection机制,说明其识别输出逻辑错误的底层原理
12. Agent长期记忆的设计思路与核心要点
13. 支付等高敏感操作场景下,Human-in-the-loop(人工介入)流程的设计原则与实现方式
14. 单一Skill模块的设计思路与核心逻辑
15. Skill与MCP的核心差异对比分析
16. OpenClaw对Agent本地文件系统操作、代码执行环境感知及权限增强的实现逻辑
17. 对Vibe Coding的理解,结合实际场景谈谈相关经验
18. 如何保障自然语言任务描述能精准转化为稳定、可靠的执行路径?
19. 上下文缓存的概念,说明其在处理Agent频繁读取的冗余系统指令时的核心价值
20. 反向提问环节
无算法手撕题
📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
全部评论

相关推荐

04-24 15:15
门头沟学院 Java
发点面经攒攒人品~1.论文拷打2.拷打实习3.拷打第一个项目:MinerU解析出的结果是Markdown,相比纯文本,Markdown的层级结构对检索有什么好处?在你的流程中,VLM是在检索阶段参与,还是只在最后生成答案时参与?Ragas评测中,如果Faithfulness得分低,说明模型出现了什么问题?4.拷打第二个项目:在LangGraph中,Node和Edge分别代表业务流中的什么?长短期记忆在实现上有什么区别?短期记忆通常存在哪里?Agent是如何识别并选择正确工具的?是基于工具的名称还是功能描述?5.讲一下向量检索和关键词检索各自的优缺点6.为什么RAG比直接问大模型更能减少事实性错误?7.如果原始文档被修改了,如何保证向量数据库里的索引同步更新?8.什么是Query Rewrite?能解决用户提问中的什么问题?9.Temperature参数调高和调低,分别会对模型的输出产生什么影响?10.讲讲CoT的原理?为什么它能让模型处理复杂任务?11.在Agent执行任务时,Thought、Action和Observation三者如何循环?12.当对话长度超过模型上下文窗口时,处理方法有哪些?13.模型在进行工具调用时,输出的是直接的结果,还是一个包含参数的 JSON 字符串?14.系统提示词和用户提示词在Agent约束力上有什么区别?15.讲一下什么是HNSW索引?为什么比暴力搜索快?16.讨论了一下OpenClaw17.在开发Agent应用时,你怎么判断一个任务该用7B的小模型还是70B的大模型?18.如果你发现Agent总是重复执行同一个错误的工具调用,你从哪个环节修复?
查看20道真题和解析
点赞 评论 收藏
分享
评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务