微软算法research实习面试(30min)

1.面试官介绍:做Excel agent,deepresearch,AI搜的研究
2.自我介绍(卡顿太多了,得再准备一下)
3.问小米那边的工作,encoder的预训练,怎样做拼接
4.问腾讯IEG这边的工作,deepresearch的deep是如何体现的(介绍了DMA的tool调用,感觉可以再了解一下多少个tool,SFT的流程
5.为什么不直接把tool调用的工具输出后放到prompt里给到LLM?(答工具很多,调用响应时间长,判黑的手段也很多;感觉可以再从监控分析agent,写代码agent上面去拓展,tool方便构造)
6.训练时候设置的最大轮次是多少,答3轮,试过5轮但是会出现oov和oom的情况
7.发icml那篇论文要如何安排,时间如何安排,实验基本做完了吗,会不会影响业务进展
8.反问:是不是发论文的work答:是,资源怎么样:比小米腾讯多
全部评论
msra?
点赞 回复 分享
发布于 2025-12-21 23:57 吉林

相关推荐

1.自我介绍;2.本科毕设项目介绍;3.Retinaface和Facenet的具体网络模型;4.Retinaface是如何检测人脸的,Facenet是如何识别人脸的;5.项目的创新点有什么,评判指标是什么;6.检测和识别用的时间,其中esp8266,mg996r分别是做什么用的;7.大模型量化比赛项目介绍;8.AWQ和GPTQ是什么;9.什么模型适合用AWQ,什么模型适合用GPTQ;10.其中最优的参数是怎么得到的;11.llm- benchmarker怎么用的,是什么评判指标;12.了解算子吗?(marlin kernel)详细说一下这个算子是什么;13.除了量化其他的方法了解吗?(压缩、减枝、LoRA)14.LoRA是什么;QLoRA是什么?为什么要用LoRA;15.具体的原理是怎么样的;16.如何将LoRA结合到TransFormer各个层?17.介绍一下TransFormer的架构;18.Encoder和Decoder是由什么组成的;19.MHA细节是怎么样的(QKV),softmax是干什么用的;20.单头注意力和多头注意力有什么区别;21.为什么MHA下面要除根号d;22.潜在多头注意力了解吗,多头注意力的作用;23.FFN详细说一下;24.残差链接有什么用;25.Layer Normalization有什么用;26.Layer Normalization和Batch  Normalization的区别;27.Qwen3的基础架构是怎么样的;28.Qwen3和Qwen2.5相比有什么区别;29.Qwen3和DeepSeek有多少个头;30.大模型要训练出思维链应该如何训练;31.如何平衡精度和推理速度,怎么做trade off的;32.了解Agent吗,做过什么agent项目33.Dense模型是什么;34.MoE、MLA是什么,详细讲一下;35.LoRA的偏置矩阵详细说一下,为什么LoRA初始化A要正态分布,B要初始化为0;36.秩是什么意思;怎么理解;37.Qwen3哪里做的好;38.快手实习项目介绍;39.经纬恒润实习项目介绍;40.了解量化交易吗;41.你平时做交易是趋势还是阶段?
你最近因为什么迷茫?
点赞 评论 收藏
分享
评论
1
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务