【面试必备】大模型经典面试题+详细答案:背八股文才是王道,不然你面试撑不过五分钟

最近春招正在如火如荼地进行中,看到很多人的简历上都包含大模型相关的工作,各家大厂和初创都很舍得给钱,动辄百万年包也变得不再稀奇。

因此在大模型纵横的这个时代,不仅大模型技术越来越卷,就连大模型相关的岗位和面试也开始越来越卷了。

本文汇总了107道大模型算法岗常见的面试题(含答案),内容如下:

一、基础篇

1、目前主流的开源模型体系有哪些?

Transformer体系:由Google提出的Transformer 模型及其变体,如BERT、GPT 等。

PyTorch Lightning:一个基于PyTorch的轻量级深度学习框架,用于快速原型设计和实验。

TensorFlow Model Garden:TensorFlow官方提供的一系列预训练模型和模型架构。

Hugging Face Transformers:一个流行的开源库,提供了大量预训练模型和工具,用于NLP 任务。

2、prefix LM 和 causal LM 区别是什么?

prefix LM (前缀语言模型):在输入序列的开头添加一个可学习的任务相关的前缀,然后使用这个前缀

和输入序列一起生成输出。这种方法可以引导模型生成适应特定任务的输出。

causal LM (因果语言模型):也称为自回归语言模型,它根据之前生成的 token 预测下一个token。在生成文本时,模型只能根据已经生成的部分生成后续部分,不能访问未来的信息。

3、涌现能力是啥原因?

涌现能力 (Emergent Ability) 是指模型在训练过程中突然表现出的新的、之前未曾预料到的能力。这种现象通常发生在大型模型中,原因是大型模型具有更高的表示能力和更多的参数,可以更好地捕捉数据中的模式和关联。

随着模型规模的增加,它们能够自动学习到更复杂、更抽象的概念和规律,从而展现出涌现能力。

4、大模型LLM的架构介绍?

大模型LLM(Large Language Models) 通常采用基于Transformer的架构。Transformer模型由多个编码器或解码器层组成,每个层包含多头自注意力机制和前馈神经网络。这些层可以并行处理输入序列中的所有位置,捕获长距离依赖关系。大模型通常具有数十亿甚至数千亿个参数,可以处理大量的文本数据,并在各种NLP任务中表现出色。

前馈神经网络 (Feedforward Neural Network) 是一种最基础的神经网络类型,它的信息流动是单向的,从输入层经过一个或多个隐藏层,最终到达输出层。在前馈神经网络中,神经元之间的连接不会形成闭环,这意味着信号在前向传播过程中不会回溯。前馈神经网络的基本组成单元是神经元,每个神经元都会对输入信号进行加权求和,然后通过一个激活函数产生输出。激活函数通常是非线性的,它决定了神经元的输出是否应该被激活,从而允许网络学习复杂和非线性的函数。

前馈神经网络在模式识别、函数逼近、分类、回归等多个领域都有应用。例如,在图像识别任务中,网络的输入层节点可能对应于图像的像素值,而输出层节点可能代表不同类别的概率分布。

训练前馈神经网络通常涉及反向传播 (Backpropagation) 算法,这是一种有效的学习算法,通过计算输出层的误差,并将这些误差信号沿网络反向传播,以调整连接权重。通过多次迭代这个过程,网络可以逐渐学习如何减少输出误差,从而实现对输入数据的正确分类或回归。

在设计和训练前馈神经网络时,需要考虑多个因素,包括网络的层数、每层的神经元数目、激活函数的选择、学习速率、正则化策略等,这些都对网络的性能有重要影响。

5、目前比较受欢迎的开源大模型有哪些?

GPT系列:由OpenAl开发的生成式预训练模型,如 GPT-3。

BERT系列:由Google开发的转换式预训练模型,如BERT、RoBERTa等。

T5系列:由Google开发的基于Transformer的编码器-解码器模型,如T5、mT5等。

6、目前大模型模型结构都有哪些?

Transformer:基于自注意力机制的模型,包括编码器、解码器和编码器-解码器结构。

GPT系列:基于自注意力机制的生成式预训练模型,采用解码器结构。

BERT系列:基于自注意力机制的转换式预训练模型,采用编码器结构。

T5系列:基于Transformer的编码器-解码器模型。

7、prefix LM 和 causal LM、encoder-decoder 区别及各自有什么优缺点?

prefix LM:通过在输入序列前添加可学习的任务相关前缀,引导模型生成适应特定任务的输 出。优点是可以减少对预训练模型参数的修改,降低过拟合风险;缺点是可能受到前缀表示长度的限制,无法充分捕捉任务相关的信息。

causal LM:根据之前生成的 token预测下一个 token, 可以生成连贯的文本。优点是可以生成灵 活的文本,适应各种生成任务;缺点是无法访问未来的信息,可能生成不一致或有误的内容。

encoder-decoder:由编码器和解码器组成,编码器将输入序列编码为固定长度的向量,解码器 根据编码器的输出生成输出序列。优点是可以处理输入和输出序列不同长度的任务,如机器翻译;缺点是模型结构较为复杂,训练和推理计算量较大。

8、模型幻觉是什么?业内解决方案是什么?

模型幻觉是指模型在生成文本时产生的不准确、无关或虚构的信息。这通常发生在模型在缺乏足够信息的情况下进行推理或生成时。业内的解决方案包括:

使用更多的数据和更高质量的训练数据来提高模型的泛化和准确性。

引入外部知识源,如知识库或事实检查工具,以提供额外的信息和支持。

强化模型的推理能力和逻辑推理,使其能够更好地处理复杂问题和避免幻觉。

9、大模型的Tokenizer的实现方法及原理?

大模型的Tokenizer通常使用字节对编码 (Byte-Pair Encoding,BPE) 算法。BPE算法通过迭代地将最频繁出现的字节对合并成新的符号,来构建一个词汇表。在训练过程中,模型会学习这些符号的嵌入表示。Tokenizer将输入文本分割成符号序列,然后将其转换为模型可以处理的数字表示。

这种方法可以有效地处理大量文本数据,并减少词汇表的规模。

10、ChatGLM3的词表实现方法?

ChatGLM3 使用了一种改进的词表实现方法。它首先使用字节对编码 (BPE) 算法构建一个基本的词表,然后在训练过程中通过不断更新词表来引入新的词汇。具体来说,ChatGLM3 在训练 过程中会根据输入数据动态地合并出现频率较高的字节对,从而形成新的词汇。这样可以有效地处理大量文本数据,并减少词汇表的规模。

同时,ChatGLM3 还使用了一种特殊的词表分割方法,将词表分为多个片段,并在训练过程中逐步更新这些片段,以提高模型的泛化能力和适应性。

11、GPT3、LLAMA、ChatGLM 的 Layer Normalization 的区别是什么?各自的优缺点是什么?

GPT3:采用了Post-Layer Normalization (后标准化)的结构,即先进行自注意力或前馈神经网络的计算,然后进行Layer Normalization。这种结构有助于稳定训练过程,提高模型性能。

LLAMA:采用了Pre-Layer Normalization (前标准化)的结构,即先进行Layer Normalization,然后进行自注意力或前馈神经网络的计算。这种结构有助于提高模型的泛化能力和鲁棒性。

ChatGLM:采用了Post-Layer Normalization的结构,类似于GPT3。这种结构可以提高模型的性能和稳定性。

#五一之后,实习真的很难找吗?##面试##实习##大模型##硕士##研究生#
全部评论
所有面试题可以开源给大家 后台T一下
2 回复 分享
发布于 04-29 15:03 湖南
T
1 回复 分享
发布于 07-24 17:36 北京
T,求面试题
1 回复 分享
发布于 07-16 21:55 广西
T
1 回复 分享
发布于 06-15 21:32 陕西
TTTTT
1 回复 分享
发布于 06-09 15:58 广东
接好运
1 回复 分享
发布于 06-03 21:21 湖南
T
1 回复 分享
发布于 06-03 16:28 吉林

相关推荐

时间范围 近半年实际面过的公司阿里、腾讯、美团、字节、快手、同程、京东、360、keep、滴滴、印象笔记、作业帮、彩云科技、蓝色光标、江城互娱、Aviagames、Hungry Stdios、深言科技、即时科技、RockFlow、格灵深瞳、百融云创、印象笔记、网龙、 HiDream.ai、昆仑万维、数驱互动、Authing先说总结面试内容 & 难度个人觉得,在llm应用的面试题上,没有太多复杂、高深的问题,不像上来让你说一下分布式锁怎么设计然后死扣设计细节或是描述一下MVCC原理这种偏高难度的八股文问题(当然也遇到了一两次),究其原因以下几点,一是大模型应用目前仍没有很成熟且被广泛接纳的方案,都还在探索;二是很多公司今年刚开始all in AI(我司all进去的比较早点),面试官也懂得不多,例如RAG这个东西,大部分的面试题无非是“你觉得RAG中最难的是什么?(文档切割喽)”、“你是怎么解决幻觉问题的?”,“微调和RAG的区别是啥?”等等,如果你做过RAG加上你经常看技术文章结合你的“侃侃而谈”,基本面试官都觉得ok。但这里着重说一下我觉得当前非常重要且极大概率提升面试通过率的的一个技术点,就是掌握微调原理并且做过动手做过微调工作再加上动手部署过大模型,这是我面试中最常被问到而又只能说没做过的问题,当然大部分公司都有专门的算法团队去做这件事,自己到没机会参与其中,也是可以理解的。算法题:一半是DP问题,还有一部分难度是easy的问题,总体上都是“老熟人”,但是,你即使写出来,面试不一定就能过,有的干脆就不考算法题。八股文:明显比之前少很多,这个和面试的岗位有关系,LLM应用的岗位更偏实践,所有很多一面就是leader面,直接问项目,除非一面也不懂LLM的东西,就会考八股文,但总的来说,八股少了,但是绝对不可以不准备,好几次挂在这上面,别小瞧它。岗位内容:游戏公司:基本上是LLM + AB test for 游戏策划;BI 分析;游戏社区客服助手;toC: Agent 个人助手toB: Agent for 解决方案other: 通用 Agent 平台;公司内部AI助手、平台;Agent for 运维offer会有很多横向对比,如果你期望薪资比较高,对方说要在等等,基本上凉了。大部分涨幅基本是不到20%的,但我的期望是30%左右,最后还是拿到了(要有一点点耐心,还要有一定的运气)。不要眼高手低,先拿一个低于自己预期的offer,再慢慢谈,前提是公司想要你。规划好时间,集中面试,集中对比,由于我时间线拉的过长,后面安排的很乱。再总结每次面完都要复盘,没答好的问题,一定要重新梳理答案。没把握问题的可以直接说不会,别给个你自己都听不懂的答案。简历一定要让大模型润色,但自己要check一遍,别吹过头了。多看技术文章,扩展技术视野,提高二面面试官对你的印象。表达一定要流畅清晰,不要断断续续的,面试官会觉得你思路不清晰。项目效果评估是个很重要的问题,不管你的技术多炫酷,终究还是要看效果,看落地效果。面试题这里想到多少写多少LLM 基础大模型是怎么训练出来的?Transform 的架构,Encoder 和 Decoder 是什么?Function Call 是怎么训练的?微调的方案有哪些?自己做过没有?大模型分词器是什么?Embedding 是什么?你们用的那个模型?Lib介绍一下 langchian介绍一下 autogen有没有用过大模型的网关框架(litellm)为什么手搓agent,而不是用框架?mcp 是什么?和Function Call 有什么区别?有没有实践过?A2A 了解吗?PromptReAct 是啥?怎么实现的?CoT 是啥?为啥效果好呢?有啥缺点?Prompt Caching 是什么?温度值/top-p/top-k 分别是什么?各个场景下的最佳设置是什么?RAG你介绍一下RAG 是什么?最难的地方是哪?文档切割策略有哪些?怎么规避语义被切割掉的问题?多路召回是什么?文档怎么存的?粒度是多大?用的什么数据库?为啥要用到图数据库?向量数据库的对比有没有做过?Qdrant 性能如何?量级是多大?有没有性能瓶颈?怎么规避大模型的幻觉?微调和RAG的优劣势?怎么量化你的回答效果? 例如检索的效果、回答的效果。Workflow怎么做的任务拆分?为什么要拆分? 效果如何?怎么提升效果?text2sql 怎么做的?怎么提高准确率?如何润色query,目的是什么?code-generation 是什么做的?如何确保准确性?现在再让你设计你会怎么做?(replan)效果是怎么量化的?Agent介绍一下你的 Agent 项目长短期记忆是怎么做的?记忆是怎么存的?粒度是多少?怎么用的?Function Call 是什么做的?你最大的难题是什么?你是怎么提高效果的?怎么降低延迟的?端到端延迟如何优化的?介绍一下single-agent、multi-agent的设计方案有哪些?反思机制是什么做的?为什么要用反思?如何看待当下的LLM应用的趋势和方向为什么要用Webrtc?它和ws的区别是什么?agent服务高可用、稳健性是怎么保证的?llm 服务并发太高了怎么办?系统设计题短链系统分布式锁的设计给你一部长篇小说,怎么做文档切割?怎么做到论文翻译,并且格式尽可能和原来的统一游戏社区客服助手设计。如何绑定游戏黑话,如何利用好公司内部的文档结合线上问题快速定位项目工程代码有问题的地方有很多结构化和非结构化数据,怎么分析,再怎么得出我要的结论。八股go的内存分配策略、GMP、GCpython 的内存分配策略、GCredis 用过那些?mget 底层什么实现的?、zset怎么实现的?mysql 索引怎么设计最好?数据库隔离级别?mvcc是怎么实现的?分布式锁是什么实现的?kafka的 reblance 是什么?会产生那些问题?怎么保证数据不丢?fastapi 设计原理?go 中 net/http 如何处理的tcp粘包问题http2 是什么?比http1.1有什么优势?Linux 网络性能调优的方式如何定位Linux中的pid、端口号等等个人在每个项目的里的角色是什么?承担那些工作?项目是几个人在做?为什么离职、每次离职的原因是什么?平常怎么学习的?怎么接触到大模型的最新进展的?对大模型将来的应用发展有什么看法?你将来的职业规划是什么?
大模型小坛:所有面试题可以开源给大家 后台T一下
点赞 评论 收藏
分享
整理一下我找暑期实习的经历吧本人本硕吉林大学,无实习经历,这是找的第一段实习,主投测开和后端(前端,数据安全等等反正跟计算机沾边的我也在海投),由于我们实验室必须发论文才放实习,直到4月底我才把论文投出去,从劳动节假期后开始学习Java(相当于0基础了),开始进行项目包装,然后猛背八股。最终也是成功上岸京东的后端开发以下是我的历程(有些忘了记不起来了)腾讯 测开 5.14 一面挂 没经验 5.25测开捞起来 一面挂 最难的现场手撕 6.4被后端捞起来 一面过 二面挂 代码差两行写完让我停说我没完成 6.25被产品捞起来要群面已拒Keep 产品经理 5.15一面挂京东 测开 5.16 一面过 5.17 二面挂 手撕有点难没出来阿里云 后端 5.16 一面挂 有点难没准备好阿里控股 测开 5.19 一面挂 基础还是不行美团 后端 5.19 一面挂 疑似KPI 题给的我听都没听过拼多多 后端 5.20 一面过 5.21二面过 差点事快手 后端 5.20一面过 二面挂感觉都答上来了不知道为啥挂了 后面投测开 6.11一面挂 只问八股字节 测开 5.21 一面挂 客户端捞起来 5.24 一面过 5.25二面过 5.26三面挂(字节三面技术面加hr面) 6.17又被测开捞起来 一面过 二面由于京东后端上岸拒了华为 开发 5.23笔试挂 太难了!百度 测开 5.23一面挂 设备出问题了阿里国际 测开 5.24 一面挂 都答上来了 说我项目跟他们做的不一样亚信科技 后端 5.30一面过 6.3二面挂滴滴 算法 简历挂 蔚来 算法 简历挂阿里灵犀互娱 测开 6.7电话一面挂 问的太细了蚂蚁集团 后端 6.9 一面过 6.12二面过 6.13hr后排序挂58同城 后端 6.14一面过 6.15二面过 6.19hr面已拒(刚发了京东offer)OPPO 数据安全工程师 6.21一面已拒饿了吗 后端 6.20一面过 二面已拒京东 后端开发 6.14一面过6.17二面过6.18hr三面过 6.19 offer 6.23已入职好未来 算法 6.15一面过 一小时后二面过 6.17hr直接oc 6.20offer 由于京东上岸已拒其实我也海投了不少,小厂面试就不多说了,由于开始的比较晚,有一些知名的招满了泡池子或者简历没筛过就不多说了,有什么问题可以问我~
软件开发投递记录
点赞 评论 收藏
分享
07-04 17:03
已编辑
河北大学 Java
最近面了美团和京东1.简历项目写的不好:项目写的有漏洞,这时候面试官会抓着问,这时候不能荒,把不合理的地方转化为,比如说,实际场景没有,但是是按照这个测试的,或者我自己是按照这个场景设计的,圆也要圆的像样点,千万别放弃,说实话,面试和工作真是两回事,好多工作项目都达不到简历水平,人尽皆知的事2.面试官深挖问题:一个知识点,面试官会逐层往下挖掘,一直挖到你不会为止,这事考深度,挖到不会了,会出一些问题,这时候考的事灵活运用3.问一些技术有没有学习和用到:这是问广度和自我学习更新能力,能多说就多说,能扯多少扯多少,填充面试官的印象4.面试官会突然问一些轻松的事情:面试官突然问一些轻松的问题,比如我当过兵,他就问这个,然后突然转到redis上面,考的是反应能力,和逻辑转换能力,先让你放松,然后突然袭击,这个一定稳定和冷静。5.问性格和沟通,或者意见有分歧:问的事团队协作能力,沟通能力,和跟领导有分歧怎么解决,类似于心理测试吧,说白了个性不要鲜明,能吃苦,能沟通,能听令行事,先听从领导,然后可以私下说,最好说的时候自己已经实践过并且有了放案,重点提醒:能提问题谁都会,但是领导喜欢能直接给解决方案的。今天发个风景,北京的夕阳还是很美的。
面试问题记录
点赞 评论 收藏
分享
评论
7
25
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务