阿里 AI Agent应用开发二面 1h

整体面试还是不错的,但是没后续了,不知道是哪里出了问题
1.实习拷打
2.拷打第一个项目:项目里如何解决图文模态对齐问题?如果图纸在文本中没有描述,模型如何通过视觉特征召回?Milvus中使用了哪种索引算法?针对术语的语义偏移,除了混合检索,有没有试过对Embedding模型进行微调或使用Adapter?
3.拷打第二个项目:如果外部测评工具返回的原始数据格式与LLM预期不符,如何实现自动化映射?当向量库检索出的长期画像与当前会话状态有冲突时,你的系统如何应对?如何防止模型回复过度依赖检索内容而变得生硬,影响共情?
4.相比于CoT,ReAct在模型与外部环境交互时解决了什么问题?
5.讲一下大模型进行Function Call的具体流程?如何将语义转化为结构化参数的?
6.在开发中,你怎么判断任务该用Workflow还是自主决策的Agent?
7.讲一下Agent的长短期记忆,在长对话中如何实现上下文的动态压缩和遗忘?
8.在Agent系统中,RAG检索到的外部知识是如何喂给模型并防止干扰的?
9.什么是Rerank?在检索链路中它对Agent的决策准确性有什么影响?
10.当单Agent面对长任务时,引入Multi Agent的优势是什么?
11.Multi Agent中,Router节点是如何决定任务该分发给哪个子Agent的?
12.什么是Human-in-the-loop?在Agent系统中如何设计人工审批断点?
13.如何量化评估一个Agent系统的好坏?
14.除了生成质量,还应该关注哪些维度的指标?
15.对于Agent多步推理带来的延迟问题,有哪些优化方法?
16.随着大模型上下文窗口的扩大,你认为RAG会被完全取代吗?
全部评论

相关推荐

04-24 14:15
门头沟学院 Java
还是太菜了,下去沉淀一下1.实习拷打2.拷打第一个项目:在多模态Embedding时,你如何平衡文本语义和图像视觉特征在计算相似度时的权重?如果用户搜的是图纸里的某个特定参数,但向量召回了一堆外观相似的零件图,你觉得是什么出了问题?Ragas的Context Precision如果很低,你怎么优化?3.拷打第二个项目:你的向量记忆库是如何做去重?如果用户反复说同一件事,你会重复存储还是进行语义合并?使用MCP接入多个测评工具时,如果两个工具对同一个问题回答格式不统一,怎么处理?4.当用户提问很含糊时,你的Agent是直接检索知识库,还是先进行反问确认?5.如果Agent发现调用的工具报错,如何设计Prompt引导它用报错信息进行重试,而不是直接报错给用户?6.在长对话中,除了截断,你了解哪些更高效的上下文压缩方法?7.在一个多Agent系统里,由LLM做Router分发任务和由固定规则分发相比,各有什么优劣?8.在Milvus里,你如何实现BM25和向量检索分数对齐?9.如果限定只检索某个时间之后的数据,向量数据库里如何实现标量过滤?10.了解LoRA微调吗?在训练LoRA时,两个参数矩阵分别是如何初始化的?11.讲讲QLoRA的核心思想12.如果你微调的是逻辑推理任务,相比于对话任务,你认为秩应该大还是小?13.在推理阶段,为了消除LoRA带来的额外延迟,你会进行权重Merge吗?14.在垂域指令微调时,如果模型原本的通用能力下降,你有哪些方法解决?16.DPO在训练时,为什么不需要像PPO那样在线采样生成回答?DPO数据格式是什么样的?17.如果并发调用10个不同的Embedding接口,asyncio.gather相比多线程在资源消耗上有什么优势?18.手撕:合并K个升序链表
查看16道真题和解析
点赞 评论 收藏
分享
评论
4
10
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务