这里是淘天的核心战场!我们支撑着双11等超大规模促销活动,日均请求量百亿级,让你在真实高并发场景中快速成长。
为什么选择我们?
✨ 技术挑战MAX:海量用户+复杂业务场景,每个优化都是亿级影响
✨ 成长加速器:从算法到工程、从模型到系统,打造AI全栈能力
✨ 深度参与内部AI项目:接触集团最前沿的AI应用,与顶尖团队并肩作战
✨ 晋升快车道:核心业务线,成果可见度高,发展机会丰富
这里不只是写代码,而是用AI重构万亿交易场景!

【职位描述】
围绕真实业务核心场景,参与AI应用的系统化构建与优化,把AI变为业务增长引擎,具体职责包括以下相关方向的一项或多项:
1、AI应用全生命周期演进:深度参与业务问题建模、应用架构设计、上下文工程、训练数据构建、自动化评估体系、模型后训练优化等;
2、数据飞轮构建:打造高质量数据生产链路,探索合成数据(Synthetic Data)与高效蒸馏技术方案,跑通“业务-模型-反馈”迭代闭环;
3、评测体系构建:面向业务目标,设计完备的AI应用效果评估体系,构建自动化评估框架,建立离线评估与在线业务指标联动的量化评估能力;
4、强化学习与奖励机制设计:构建可工程化的Reward体系与RL训练环境,提升模型在垂直业务场景中的可控性与泛化能力;
5、AI外部能力体系搭建:实现AI应用所需的知识库(RAG)、长短期记忆系统(Memory)、工具调用、多Agent协作框架等;
6、多模态AI应用开发:构建AI应用的多模态感知与推理能力,解决在UI自动化、视觉理解与审核、多模态会话等场景的落地应用问题。

【职位要求】
1、专业要求:计算机、数学、统计学等相关专业硕士/博士优先,优秀本科生不受限制;
2、模型理解与优化:深入理解Transformer和主流LLM模型架构演进原理,对后训练算法有实操经验和深刻认知,拥有Agentic RL训练实操经验者优先;
3、AI应用构建能力:掌握主流AI协议(MCP、Skills等)、记忆系统(Memory)、知识库(RAG),独立开发过具备一定影响力AI应用者优先;
4、代码与工程能力:较强Python编程能力,熟练掌握Pytorch,了解大模型训练与推理框架(Megatron-LM、vLLM、DeepSpeed等),能高效处理分布式环境下的工程问题;
5、数据构建能力:有很强的Data-centric AI的意识,精通后训练所需高质量数据挖掘与构造,具备合成数据(Synthetic Data)与动作轨迹(Trajectory)构建实操经验者优先;
6、评测能力:拒绝盲目调参,能针对Agent任务设计科学的评测体系(LLM-as-a-Judge),能基于评测结果精准分析和定位问题,具备复杂多步任务的量化评估能力者优先;
7、对新技术有近乎本能的渴望,能够独立阅读论文/技术报告等并快速复现,快速主动尝试落地先进开源项目,对主流AI开源项目有贡献者优先。

【加分项】:
1、在AI顶会(ACL/EMNLP/ICLR/NeurIPS/ICML等)发表大模型评测、数据合成、Agent、RL相关一作或共一论文;
2、知名大模型评测框架或高质量开源数据核心贡献者;
3、极强的数学功底和逻辑分析能力,对高质量数据和评测有端到端闭环经验。

私聊或简历发送邮箱jihe.wxh@taobao.com
全部评论

相关推荐

LLM Agent 系统的核心瓶颈是上下文管理,其核心痛点包括 Token 限制导致的上下文溢出、多轮对话漂移、工具调用引发的上下文爆炸与污染、记忆检索不精准、记忆冲突及长任务无法持续等问题。解决方案以 “记忆分层、上下文压缩、智能检索” 为核心,通过滑动窗口保留近期对话、上下文总结压缩冗余信息、RAG 实现精准记忆召回、分层记忆架构区分短期 / 长期 / 任务记忆,搭配上下文排序与工具输出压缩等技术,构建以 Context Manager 为核心的生产级架构,同时通过 Prompt Budget 规划、定期总结等最佳实践,在有限 Token 内为 LLM 提供最有价值的上下文,支撑 Agent 稳定高效运行。一、核心痛点1.Token上限限制,长对话+工具数据易致上下文溢出2.多轮对话漂移,Agent偏离初始任务目标3.上下文污染/爆炸,工具返回大量冗余原始数据4.记忆检索不精准,易召回无关/遗漏关键信息5.记忆无一致性机制,用户信息易出现冲突6.长周期任务无法持续推进二、核心解决原则记忆分层、上下文压缩、智能检索,用最少Token为LLM提供高价值上下文。三、核心解决方案1.滑动窗口:保留最近N轮对话,基础兜底方案2.上下文压缩:LLM定期总结对话历史,精简Token3.RAG记忆检索:按需向量检索,仅传入相关长期记忆4.分层记忆架构:短期(近期对话)+长期(用户信息)+情景(任务总结)5.上下文排序:按相关性×新鲜度×重要性打分,仅取Top K高价值内容6.工具输出压缩:原始数据经压缩后,仅传入核心要点四、生产级核心架构以Context Manager为核心统筹,形成闭环:输入层(用户查询/工具结果/历史/记忆)→核心管理层(五大解决方案模块)→记忆层(分层架构)→输出层(Prompt Builder按Token预算拼Prompt入LLM)→反馈层(LLM输出反向更新记忆)五、生产落地最佳实践1.提前规划各组件Token预算,避免溢出2.工具输出、记忆使用必须做压缩/检索,杜绝原始/全量数据3.每10-20轮对话定期总结,更新情景记忆4.所有上下文必经排序筛选,保留高价值内容六、未来发展方向Context OS、知识图谱式Graph Memory、自适应上下文、支撑长周期任务的Long-Term Agents七、核心结论LLM Agent的核心瓶颈是上下文管理,而非模型本身;管理本质是平衡信息完整性与Token经济性,生产落地关键是以Context Manager为核心,组合各类技术形成标准化处理流程。
AI求职实录
点赞 评论 收藏
分享
评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务