有向智元 Agent 一面

#AI求职记录# 稳稳的寄了。

Q:你的 Agent 具备上下文记忆功能,基于 ReAct 模式,目前实际运行中最多能支持多少轮对话?

Q:在 ReAct 模式下,Agent 需要频繁调用工具。考虑到不同大模型(如 Kimi 支持 20 万+ token,DeepSeek 支持 10 万+ token)的上下文窗口限制,您在执行过程中是否遇到过因工具调用次数过多(N 次)导致 Token 超出限制(撑爆上下文)的情况?如果有,是如何处理的?

Q:在问答类场景中,如果 Agent 陷入死循环(例如反复搜索不到内容,不断重复“查看文件 - 搜索文件”的操作),有什么机制来检测并处理这种异常情况?

Q:项目基于 MCP 协议集成了服务器资源查询、数据操作和校内文档检索,为什么没有考虑集成外部互联网资源的检索能力?

Q:像 Codex 这类代码模型,其内部显然不是基于向量检索的。您是否研究或思考过 Codex 内部的文件检索策略是如何实现的?

Q:目前 OpenClaw 比较热门,您是否阅读过相关源码或研究过其技术实现?

Q:您提到了“服务器辅助开发”功能,是基于 Plan-Execute-RePlan 的方式实现的。能否详细讲解一下这一功能的具体实现逻辑?

Q:你实现的“Plan-Execute-RePlan”流程与 Minus 这种有什么区别?
全部评论
考虑我司不 欢迎联系
点赞 回复 分享
发布于 03-27 00:10 上海
够难
点赞 回复 分享
发布于 03-26 11:02 广东

相关推荐

03-24 13:35
门头沟学院 Java
攒攒人品!有面试过同岗的朋友欢迎评论区交流1.实习拷打2.项目拷打3.你们的 Agent 是单 Agent 还是多 Agent?为什么这么设计?有没有考虑过另一种方案?4.Agent 任务是怎么拆分的?拆分粒度是怎么决定的?5.上下文是怎么构建的?你们怎么避免上下文过长或者信息污染?6.如果上下文窗口不够,你优先保留哪些信息?为什么?7.你们做代码理解的时候,AST、调用关系这些信息是怎么用起来的?8.单测生成里,哪些代码其实不适合生成单测?你们是怎么识别并过滤的?9.覆盖率高但测试质量很差,这种情况你见过吗?你们是怎么解决的?10.mock在单测里什么时候是必须的?什么时候反而会带来问题?11.如果一个函数依赖数据库和RPC,你怎么让模型生成的单测还能稳定运行?12.你们怎么评估生成单测的质量?除了覆盖率,还有哪些指标?13.LLM的输入到底是什么?模型真正看到的是什么?14.self attention的核心作用是什么,为什么要拆成 QKV?为什么attention 可以建模长距离关系,15.为什么需要multi-head为什么 attention可以看成动态加权16.同一个 token的 Q、K、V 为什么不一样?17.attention复杂度很高,如果上下文特别长,你会怎么优化?18.模型产生幻觉的时候,一般是什么原因?工程上有什么办法降低19.Python有多线程吗?GIL 是干什么的?什么时候多线程是有用的?20.讲一下C++从源码到可执行文件的流程。21.手撕:给定数组的区间中位数之和:给定一个长度为n的数nums,一个区间 [l, r] 的 中位数 为:如果区间长度是奇数:排序后中间的数,如果是偶数:排序后靠左的那个数,要求:计算所有子数组的中位数之和
点赞 评论 收藏
分享
评论
2
11
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务