上海人工智能实验室后端开发实习面经(已oc)

一面

计算机基础你都学过了是吧,那我就不问了(

谈一谈你对hashmap的理解。

hashmap线程不安全的场景,如何去解决。

concurrenthashmap在1.6之后做了哪些改进。

hashmap在链表长度为8,数组长度为64时链表转红黑树,为什么设定这两个默认值。

synchronized 和 Lock的区别。

谈一谈在高并发的情况下,会遇到哪些问题,怎么去解决。

如果从线程池的角度去考虑,那怎么去优化。

JVM中的垃圾回收方式

谈一谈Mysql 中怎么去做性能优化。

如果出现慢查询,你如何去解决。

聚集索引和二级索引的区别

spring 事务,在项目中怎么用的

你在项目中用了哪些redis的数据结构,用redis干了什么。

kafka和elasticsearch在项目中怎么用的,了解工业界的用法吗。

反问

业务(大模型相关的后端开发)

对实习生的要求(掌握java基础,中间件会使用就可以,算法方面不做要求)

建议(可以多看看底层原理,掌握后再去学习微服务和中间件)

一面面试官人挺不错,面试体验也很好,问题也比较简单,全答上来了。

二面(交叉面)

我是做算法的,对后端的技术不了解,你后端应该过关了,我就来问问你的算法基础。(直接懵了,一点没复习)

为什么选择 ailab的后端开发实习

你今年保研,你的研究方向是什么呢?(大模型,只能说给自己挖坑了)

谈一谈你对大模型的理解吧(谈不了一点,随意乱说一通)

我现在有很多问答结果,我如何去对这些结果进行排序(按得分进行排序)

那你说说排序的方法(相似度)

相似度怎么计算的(矩阵化后计算)

将文本矩阵化的方法叫什么(忘了,后来才想起来是embedding)

我现在有1万个问答请求,但服务器只能同时容纳1000个请求,你怎么做。

传入后端的问答数据,有不同的格式,如何根据格式进行分类存储,并且要保证数据的有序性。

为什么不去找算法实习呢?(我不去找是因为我不想吗

反问

ailab到底是干嘛的(类似于研究所,既有工程也有科研)

ailab的后端开发实习也要求有算法基础吗(有则更好,而且你说以后要研究大模型,我就想听听你的一些算法的知识

如何去提升算法能力 (打好基础,然后推荐了3本书,让我去看看)

二面面完两小时后约hr面

全部评论
佬👍🏻恭喜oc🎉
4 回复 分享
发布于 2023-12-26 17:54 重庆
老哥你申请到公寓了么,我hr说没宿舍,那边租房贵麻了
1 回复 分享
发布于 2023-12-31 10:41 安徽
重✌️威武,展我🐛威
1 回复 分享
发布于 2023-12-26 21:42 重庆
佬感觉上海ailab后端实习体验怎么样,学到的东西多吗
点赞 回复 分享
发布于 2025-05-31 09:00 上海
可以请问上海ai lab hr面大概会问些什么吗
点赞 回复 分享
发布于 2025-01-21 18:16 上海
码一下,好奇大模型业务的后端开发是做什么
点赞 回复 分享
发布于 2024-02-25 13:05 浙江
佬一面后多久约的二面,我面完一天半还没有下文
点赞 回复 分享
发布于 2024-01-10 10:26 上海
佬在哪里投的
点赞 回复 分享
发布于 2023-12-28 23:39 浙江
靠 后端岗怎么还问这么多算法呀 一点都不会
点赞 回复 分享
发布于 2023-12-27 18:55 陕西
大佬可以分享下是哪三本书不
点赞 回复 分享
发布于 2023-12-27 16:32 广东

相关推荐

给我面没招了。。。1. 项目拷打2. 详细阐述Transformer的底层原理,并说明其能够替代RNN的核心优势;结合Transformer架构的成熟度,分析Self-Attention机制在多模态对齐任务中是否存在瓶颈,以及在实际业务场景中,是否出现过注意力权重完全偏移的情况。3. 讲解LoRA的技术原理,说明LoRA是否仅能嵌入Linear层;分析LoRA无法在LayerNorm层之后插入的原因,以及该操作会对模型训练稳定性产生哪些具体影响。4. 结合实操经验,说明QLoRA降低训练资源成本的核心逻辑;列举常见的模型量化方式,并解释QLoRA选择NF4与FP16组合而非其他方案的原因,阐述NF4的分布拟合逻辑。5. 针对采用multi-query attention优化后,decoder延迟仍居高不下的问题,分析潜在性能瓶颈;探讨vLLM自带的KV Cache是否会成为推理过程中的负担。6. 分别说明Embedding模型与Rerank模型处理文本语料的核心流程,并结合实际应用场景举例说明。7. 结合过往RAG项目经验,讲解从数据清洗到检索服务上线的完整链路搭建流程,重点说明chunk切分的具体策略。8. 分析当前RAG技术落地的最大瓶颈,并阐述你在项目中采取过哪些优化手段来提升检索召回率(Recall)。9. 针对XX领域大模型的训练工作,说明SFT(监督微调)数据集的构造方法与核心思路。10. 结合LoRA微调实操经历,说明rank值的选择依据;在合并adapter权重的过程中,是否遇到过梯度爆炸问题,以及对应的解决方法。11. 结合你的模型部署相关经验,说明模型参数量与硬件算力需求之间的对应关系(例如不同参数量级模型所需的算力配置标准);以部署一个稀疏率千分之三的235B参数量MOE架构模型为例,估算其所需的算力规模。12. 在搭建RAG知识库时,若需对文档进行动态更新,你采用的是全量嵌入还是增量处理方案?若为增量处理,如何规避新旧文档数据分布不一致导致的检索偏差问题。
点赞 评论 收藏
分享
祝大家都能拿到满意的Offer!1. 项目拷打2. 详细阐述Transformer的底层原理,并说明其能够替代RNN的核心优势;结合Transformer架构的成熟度,分析Self-Attention机制在多模态对齐任务中是否存在瓶颈,以及在实际业务场景中,是否出现过注意力权重完全偏移的情况。3. 讲解LoRA的技术原理,说明LoRA是否仅能嵌入Linear层;分析LoRA无法在LayerNorm层之后插入的原因,以及该操作会对模型训练稳定性产生哪些具体影响。4. 结合实操经验,说明QLoRA降低训练资源成本的核心逻辑;列举常见的模型量化方式,并解释QLoRA选择NF4与FP16组合而非其他方案的原因,阐述NF4的分布拟合逻辑。5. 针对采用multi-query attention优化后,decoder延迟仍居高不下的问题,分析潜在性能瓶颈;探讨vLLM自带的KV Cache是否会成为推理过程中的负担。6. 分别说明Embedding模型与Rerank模型处理文本语料的核心流程,并结合实际应用场景举例说明。7. 结合过往RAG项目经验,讲解从数据清洗到检索服务上线的完整链路搭建流程,重点说明chunk切分的具体策略。8. 分析当前RAG技术落地的最大瓶颈,并阐述你在项目中采取过哪些优化手段来提升检索召回率(Recall)。9. 针对XX领域大模型的训练工作,说明SFT(监督微调)数据集的构造方法与核心思路。10. 结合LoRA微调实操经历,说明rank值的选择依据;在合并adapter权重的过程中,是否遇到过梯度爆炸问题,以及对应的解决方法。11. 结合你的模型部署相关经验,说明模型参数量与硬件算力需求之间的对应关系(例如不同参数量级模型所需的算力配置标准);以部署一个稀疏率千分之三的235B参数量MOE架构模型为例,估算其所需的算力规模。12. 在搭建RAG知识库时,若需对文档进行动态更新,你采用的是全量嵌入还是增量处理方案?若为增量处理,如何规避新旧文档数据分布不一致导致的检索偏差问题。13. 针对机械臂动作态融合相关工作,说明数据融合的具体实现方案,以及对比实验的设计思路与评估指标。
查看12道真题和解析
点赞 评论 收藏
分享
评论
13
34
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务