微软 bing LLM 应用面经

这次面的是工程院 bing 团队的 LLM 应用组,问的问题量不大,有一些比较开放性的问题比较有意思。
1.自我介绍 两面都有
2. 主要会根据项目做一些介绍,这个一面久,二面短一些。
3. 一面问了 transformer 结构
4. 有没有做过大模型之外的 NLP 相关的内容(简单讲了讲)
二面的开放性问题
5. 做 rag 应用的时候, 如果幻觉问题严重怎么办?比如已经给了很多 rag 召回的内容了,但是还是错误很多,尤其是一些时间数字类的信息,很容易不准确。(我回答:类似于指令微调,构造对应的数据集, 微调强化大模型对检索的内容的跟随能力)
6.接着上面,那你觉得这种数据集怎么构造呢? 检索的内容和问题很好弄,但是答案怎么获取方便?(我: 我觉得可以反向构造,我先从网络上爬一堆内容作为答案,比如把新闻里的一些信息作为答案,然后让大模型比如 gpt4 生成对应的问题, 再检索召回相关的内容,构造数据集。 面试官说这个想法还挺有意思的)
7. 我想通过加噪声的方式提高模型的鲁棒性, 你觉得这个噪声应该怎么加好? 或者说怎么确定加在 token 的什么位置,加什么 token?(不太懂,我就说从我一般的理解,加噪声都是从 embedding 去加的, 比如随机加一些高斯噪声提高鲁棒性)
8.如果我做 rag 召回的相关内容里,会有人恶意注入了一些错误的信息, 你觉得会影响大模型的生成内容吗?怎么避免?(我认为肯定会有影响, 因为关注的信息有错。 我觉得可以提高召回的信息量, 从而稀释错误信息占比来解决)
9.接着上面的回答, 我们的输入长度有限制,不能无限加召回的内容怎么办?(可以在检索召回链路中再加一层,类似于粗排后再精排一次,从而减少错误信息的量)
其他的不记得了,就是感觉现在面试很喜欢问一些开放性问题。
代码题
一面编辑距离, 二面是一个有序数组左边平移一定位置后的数组,找到一个 target 的下标。都不算难。
全部评论
微软 北京 算是你校的大本营哈哈哈 占比不小
2 回复 分享
发布于 2024-04-05 18:47 江西
面了很多大模型暑期机会,面对一些开放性问答的时候感觉是最容易博得面试官好感的部分,大佬太强了!持续关注交流
1 回复 分享
发布于 2024-04-01 15:10 广东
想问下LLM应用这个方向招的公司多吗
点赞 回复 分享
发布于 2024-04-15 22:18 广东
佬有拿到oc吗
点赞 回复 分享
发布于 2024-04-06 21:31 北京
其实我觉得加噪声应该在数据集上就加,一种是人产生的噪声,这是有固定模式的;另一种,就是模型训练的本身的噪声了。
点赞 回复 分享
发布于 2024-04-06 03:57 江西
问下大佬,微软哪里投呀
点赞 回复 分享
发布于 2024-03-30 23:11 北京

相关推荐

学历背景:电子科技大学(985)· 计算机科学与技术 · 硕士(2024.09-2027.06)学术荣誉:本硕双985,保研,硕士GPA 4.0/4.0(Top 2.8%),多次获得一等奖学金英语水平:CET-6 (567)顶会论文:EMNLP 2025 录用(共一)针对 Agent 缺乏全局视野问题,设计了基于图结构世界模型(Graph-based World Model)的智能体框架 。提出 Code-as-Policy 前瞻性规划机制,实现复杂任务的高鲁棒性决策 。算法竞赛:阿里天池 FT-Data Ranker 大语言模型微调数据赛 Top 3% (11/385) 。【项目经历】具身智能 (Robotics):推理加速:设计基于 DCT 的自适应分词算法,在 AgileX Piper 真机实现“变长输入、定复杂度输出”,显著提升控制稳定性 。Agent & RAG:构建基于 LangGraph 的多智能体协同框架(ScholarCopilot),实现具备自我修正能力的闭环工作流 。采用 BM25+Vector 混合检索及 RRF 融合策略,显著降低学术引文幻觉 。【专业技能】框架/生态:熟练使用 Python/PyTorch,熟悉 HuggingFace 生态及 VLM 模型微调 。工程能力:掌握 vLLM 加速、AWQ 量化、ROS 通信及 Android 自动化控制 。真机经验:具备 AgileX Piper 机械臂真机控制与数据采集经验 。【求职意向】目标岗位:具身智能算法、大模型算法、AI Agent 研究员、多模态算法等实习生。到岗时间:2026年暑期,Base地:成都/北京/上海/杭州/深圳。完整简历(PDF)已准备好,欢迎有 HC 的 HR 或内推大佬私信了解详情!
点赞 评论 收藏
分享
1.自我介绍;2.本科毕设项目介绍;3.Retinaface和Facenet的具体网络模型;4.Retinaface是如何检测人脸的,Facenet是如何识别人脸的;5.项目的创新点有什么,评判指标是什么;6.检测和识别用的时间,其中esp8266,mg996r分别是做什么用的;7.大模型量化比赛项目介绍;8.AWQ和GPTQ是什么;9.什么模型适合用AWQ,什么模型适合用GPTQ;10.其中最优的参数是怎么得到的;11.llm- benchmarker怎么用的,是什么评判指标;12.了解算子吗?(marlin kernel)详细说一下这个算子是什么;13.除了量化其他的方法了解吗?(压缩、减枝、LoRA)14.LoRA是什么;QLoRA是什么?为什么要用LoRA;15.具体的原理是怎么样的;16.如何将LoRA结合到TransFormer各个层?17.介绍一下TransFormer的架构;18.Encoder和Decoder是由什么组成的;19.MHA细节是怎么样的(QKV),softmax是干什么用的;20.单头注意力和多头注意力有什么区别;21.为什么MHA下面要除根号d;22.潜在多头注意力了解吗,多头注意力的作用;23.FFN详细说一下;24.残差链接有什么用;25.Layer Normalization有什么用;26.Layer Normalization和Batch  Normalization的区别;27.Qwen3的基础架构是怎么样的;28.Qwen3和Qwen2.5相比有什么区别;29.Qwen3和DeepSeek有多少个头;30.大模型要训练出思维链应该如何训练;31.如何平衡精度和推理速度,怎么做trade off的;32.了解Agent吗,做过什么agent项目33.Dense模型是什么;34.MoE、MLA是什么,详细讲一下;35.LoRA的偏置矩阵详细说一下,为什么LoRA初始化A要正态分布,B要初始化为0;36.秩是什么意思;怎么理解;37.Qwen3哪里做的好;38.快手实习项目介绍;39.经纬恒润实习项目介绍;40.了解量化交易吗;41.你平时做交易是趋势还是阶段?
你最近因为什么迷茫?
点赞 评论 收藏
分享
评论
15
57
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务