腾讯日常二面 客户端

面试官说话很好听,最后给的反馈也很暖心。

1、项目相关问题……

2、对象池怎么实现的?

3、为什么创建和销毁开销大?

4、接触过AI大模型有关基础吗?没有(

5、实现实时资源加载的思路

6、资源很多应该怎么优化

7、算法题:递增或递减数组切割,二分查找目标值。

我很少进二面,体验很新鲜,算法题差点没做出来,没想到是卡在控制台输入了(

#面经#
全部评论
沾沾喜气
2 回复 分享
发布于 2025-11-13 18:43 广东
这就是9✌吗
1 回复 分享
发布于 2025-11-14 00:27 湖南
沾沾喜气
1 回复 分享
发布于 2025-11-14 00:26 湖南
1 回复 分享
发布于 2025-11-13 18:53 四川
佬最后来鹅了吗
点赞 回复 分享
发布于 01-22 12:02 广东
佬,请问腾讯一面完之后什么时候出结果呀, 窝的一面怎么和你的一面差这么多
点赞 回复 分享
发布于 2025-12-03 11:12 陕西
佬,项目问的多吗
点赞 回复 分享
发布于 2025-11-24 16:32 北京
有后续嘛
点赞 回复 分享
发布于 2025-11-18 20:11 北京

相关推荐

LLM Agent 系统的核心瓶颈是上下文管理,其核心痛点包括 Token 限制导致的上下文溢出、多轮对话漂移、工具调用引发的上下文爆炸与污染、记忆检索不精准、记忆冲突及长任务无法持续等问题。解决方案以 “记忆分层、上下文压缩、智能检索” 为核心,通过滑动窗口保留近期对话、上下文总结压缩冗余信息、RAG 实现精准记忆召回、分层记忆架构区分短期 / 长期 / 任务记忆,搭配上下文排序与工具输出压缩等技术,构建以 Context Manager 为核心的生产级架构,同时通过 Prompt Budget 规划、定期总结等最佳实践,在有限 Token 内为 LLM 提供最有价值的上下文,支撑 Agent 稳定高效运行。一、核心痛点1.Token上限限制,长对话+工具数据易致上下文溢出2.多轮对话漂移,Agent偏离初始任务目标3.上下文污染/爆炸,工具返回大量冗余原始数据4.记忆检索不精准,易召回无关/遗漏关键信息5.记忆无一致性机制,用户信息易出现冲突6.长周期任务无法持续推进二、核心解决原则记忆分层、上下文压缩、智能检索,用最少Token为LLM提供高价值上下文。三、核心解决方案1.滑动窗口:保留最近N轮对话,基础兜底方案2.上下文压缩:LLM定期总结对话历史,精简Token3.RAG记忆检索:按需向量检索,仅传入相关长期记忆4.分层记忆架构:短期(近期对话)+长期(用户信息)+情景(任务总结)5.上下文排序:按相关性×新鲜度×重要性打分,仅取Top K高价值内容6.工具输出压缩:原始数据经压缩后,仅传入核心要点四、生产级核心架构以Context Manager为核心统筹,形成闭环:输入层(用户查询/工具结果/历史/记忆)→核心管理层(五大解决方案模块)→记忆层(分层架构)→输出层(Prompt Builder按Token预算拼Prompt入LLM)→反馈层(LLM输出反向更新记忆)五、生产落地最佳实践1.提前规划各组件Token预算,避免溢出2.工具输出、记忆使用必须做压缩/检索,杜绝原始/全量数据3.每10-20轮对话定期总结,更新情景记忆4.所有上下文必经排序筛选,保留高价值内容六、未来发展方向Context OS、知识图谱式Graph Memory、自适应上下文、支撑长周期任务的Long-Term Agents七、核心结论LLM Agent的核心瓶颈是上下文管理,而非模型本身;管理本质是平衡信息完整性与Token经济性,生产落地关键是以Context Manager为核心,组合各类技术形成标准化处理流程。
AI求职实录
点赞 评论 收藏
分享
评论
8
18
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务