5月20日,25届春招,美团后端二面面经

整体50min

1、自我介绍

2、对AI大模型的认识,答:巴拉巴拉讲了十五分钟,从CNN,RNN到Attention,Transformer,除此以外,RAG,function call等等各种扯

3、tcp为什么要三次握手,答:全双工保证双方能够收发的角度聊的,可靠性,问:为什么四次挥手,以及为什么tcp连接是三次握手而断开连接是四次挥手,答:我是从合并的角度聊的,挥手的服务器方的ack以及fin要分开,主要是当发送方发来fin的时候,此时服务器还有一些请求没处理完,如果将第二次和第三次合并成一个,那么势必会有延迟,这样发送方会有超时重传机制,为了节省一次握手带来了后续的发送方重传得不偿失,同时四次挥手最后有一个time_wait状态,保证第三次挥手的请求如果丢失重传发送方能够接受并确认,同时保证旧的请求都已处理完,和新的请求分开。

4、手写单例模式

5、算法题:取出乱序数组中前k个最小的元素

6、场景题:有一个app,他有一个日志系统,每一次请求(MAC)都会记录到日志中,一个用户可以进行多次请求(MAC),现在这个日志很大很大,而内存很小很小,同时服务器也是那种老式的,没有大数据工具、mysql之类的用,设计一种方案统计前k个出现次数最多的MAC?答:内存很小,不能一次性都读进来把日志,采用分治的思想,将大的日志文件一块一块的读进来,没读一次,用HashMap进行计数,不同块之间用类似归并排序的思想同时要注意去重,最后得到前k个MAC

7、平时如何学java的

8、反问

#春招#
全部评论
我去 这和我一面的题目一样 笑死
点赞 回复 分享
发布于 05-21 11:49 北京

相关推荐

1. 基础概念题:什么是大模型核心加速技术中的 “算子融合”?举例说明其作用。答案要点:算子融合是将多个连续计算算子合并为一个,减少计算图中的节点数和显存读写次数,降低延迟。举例:如将 Transformer 中的 Add(残差连接)与 RMSNorm(归一化)融合,减少两次内存访问,提升推理速度。2. 技术原理题:Flash Attention V2 如何优化注意力计算效率?与 V1 的核心区别是什么?答案要点:• V1:通过分块计算注意力,减少显存占用(避免存储所有中间键值对)。• V2:引入 “内外循环交换策略”,将矩阵乘法的循环顺序调整为更适合 GPU 并行计算的模式,进一步提升计算效率,尤其在长序列场景下加速明显。3. 量化技术中,FP8、INT4 AWQ、INT4-FP8 AWQ 的适用场景和压缩率有何差异?4. RAG 系统中,文档切分粒度如何影响检索和生成效果?实际中如何确定最优粒度?5.在长序列推理场景中,PagedAttention 和 Prefix Caching 分别解决什么问题?如何配合使用?答案要点:• PagedAttention:将 KV Cache 分块存储在非连续显存中,避免显存碎片,支持处理超长序列(如百万 Token);• Prefix Caching:缓存历史对话的 KV 对,跨请求复用,减少重复计算(如多轮对话中复用上文缓存)。配合逻辑:PagedAttention 解决显存限制,Prefix Caching 减少计算量,两者结合可提升长对话场景的效率和稳定性。6. 在企业级推理场景中,如何根据需求选择量化方案?举例说明短文本高并发和长文本场景的优化策略。实时客服系统用 INT4 量化加速响应;金融报告生成场景用 FP8+PagedAttention 处理数千 Token 输入。
点赞 评论 收藏
分享
1️⃣自我介绍:【⌚️10分钟】点评:流水账,有些磕磕绊绊,自我介绍环节的项目介绍的很详细,非常冗余。优化:写逐字稿,背诵,提升语言表达能力。2️⃣经常问题的问题优化:【⌚️20分钟】1:transform结构了解吗?回答点评:回答的很简单,5分吧,说了transform的结构是encode-decode结构,分块,每个块里面有四个组建,MHA、FFN、LN、残差链接,介绍和理解不深刻。提升指导:梳理回答逻辑结构,讲解MHA、FFN、LN、残差链接的添加逻辑和含义,其中MHA给出代码层面理解,从2分钟的回答变成6分钟的回答。2:多头自注意力机制是啥?公式是啥?代码你会写吗?回答点评:讲了公式,但是掌握的不够细致,pytorch代码框架不熟悉,attention_mask机制没有写出来。提升指导:讲述代码的原理,如何使用代码回答问题,展示自己的理解深刻。3:rag中的多路召回是什么?embeding为啥用智源的BGE-large/Base?回答点评:使用了BM25和向量召回,但是没有讲出来两个的区别和联系提升指导:先讲原理,再讲述下语义理解能力和泛化能力的区别,计算的效率,两个互为补充等。3️⃣不会回答的问题指导:【⌚️40分钟】1:  LN不太会回答,看网上的回答很多,但是不是理解层面。2:我的向量召回是faiss做的,和这个相关的问题我如何准备?3:经常会被问到rag用的啥框架,这个问题如何回答?还需要准备框架的知识吗?4:面试官经常问我,rag的模型是啥?有做微调吗?如果不做微调怎么回答?5:大模型还需要补充那些知识?📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
查看8道真题和解析
点赞 评论 收藏
分享
评论
3
10
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务