微软算法research实习面试(30min)

1.面试官介绍:做Excel agent,deepresearch,AI搜的研究
2.自我介绍(卡顿太多了,得再准备一下)
3.问小米那边的工作,encoder的预训练,怎样做拼接
4.问腾讯IEG这边的工作,deepresearch的deep是如何体现的(介绍了DMA的tool调用,感觉可以再了解一下多少个tool,SFT的流程
5.为什么不直接把tool调用的工具输出后放到prompt里给到LLM?(答工具很多,调用响应时间长,判黑的手段也很多;感觉可以再从监控分析agent,写代码agent上面去拓展,tool方便构造)
6.训练时候设置的最大轮次是多少,答3轮,试过5轮但是会出现oov和oom的情况
7.发icml那篇论文要如何安排,时间如何安排,实验基本做完了吗,会不会影响业务进展
8.反问:是不是发论文的work答:是,资源怎么样:比小米腾讯多
全部评论
msra?
点赞 回复 分享
发布于 2025-12-21 23:57 吉林

相关推荐

发一下问题给大家参考,攒攒人品!1*Agent与Workflow的区别是什么?在实际业务中,你会根据什么标准选择对应的方案2*设计一个企业级Agent架构,如何实现 BFF、Tool Server 与 Worker 的多组件拆分3*在企业级Agent中,怎么实现安全与隔离?权限管理、审计与日志追踪具体的落地方案是什么?4*说一下什么是MCP?它在Agent生态中解决了什么痛点?5*MCP 有哪些具体的分类?Transport 层是怎么工作的?如何开发一个 MCP Server?6*谈谈你对 Claude Code、Manus 这类 Agent 产品的理解,它们的架构逻辑与传统 Chat Agent 有什么差别?它工程部分的能力是怎么实现的?7*如何实现 Claude 的 Agent Research 方法论?Deepsearch 场景下需要配备哪些工具?基础设施与安全挑战在哪里?8*在多轮对话中,分别实现 Short-term memory、Long-term memory 与 Task memory怎么做?9*上下文机制的完整实现流程是怎样的?说一下它的写入策略、读取策略以及 Rerank 的做法是怎么样的。10*当上下文超过 Token 限制时,组合使用 Rolling Summary、State Extraction 与 RAG 这三段式策略?11*说一下Prefix Caching 和 KV Cache 的原理。为什么缓存的是 K 和 V 而不是 Q?不再计算前缀具体节省了哪部分算力?12*引入 Prefix Caching 后,Attention 的计算复杂度是怎么下降的?13*Few-shot在Agent评测中是为了提升能力还是降低方差?在评测Pipeline的哪个阶段注入?如何防止过拟合?14*对比一下Transformer中Self-attention与FFN的作用差异。15*为什么 Prefix Caching 只能优化 Attention 部分,而无法优化 FFN 部分?16*从 Softmax 的数学角度解释,为什么在计算过程中加上负无穷就能让注意力权重变为 0?17*什么是掩码?你分别说一下Causal Mask与 Padding Mask 的作用是什么。
查看17道真题和解析
点赞 评论 收藏
分享
评论
2
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务