小红书大模型算法实习二面

1️⃣实习介绍
2️⃣基本就是顺着简历全在问八股
1.Transformer 的结构,有哪些可以学习的参数
2.多头自注意力结构,矩阵个数
3.ffn结构
4.encoded decoder 区别
5.一个 decoder block 由几个部分组成
6.encoder 的输出,作为什么到 decoder
7.为什么 decoder 更适合生成
8.decided mask 在推理中有用吗
9.Transformers 各个架构的改进(attention/ffn/位置编码)分为:
10.GQA MHA MQA 区别
11.swiGLU 的改进
12.rope 在哪里加入
3️⃣然后开始项目,其实也问很多八股:
1.用的什么开源 dpo 数据
2.为什么没用 qwen-3
3.全参数微调 7B 需要多少显存
4.FP16/BF16 区别
5.AdamW 显存计算
6.介绍 Flash attention
7.介绍 gradient checkpoint
8.RougeL 计算方法
9.代码:
找数组第 k 大元素
全部评论

相关推荐

1.自我介绍;2.本科毕设项目介绍;3.Retinaface和Facenet的具体网络模型;4.Retinaface是如何检测人脸的,Facenet是如何识别人脸的;5.项目的创新点有什么,评判指标是什么;6.检测和识别用的时间,其中esp8266,mg996r分别是做什么用的;7.大模型量化比赛项目介绍;8.AWQ和GPTQ是什么;9.什么模型适合用AWQ,什么模型适合用GPTQ;10.其中最优的参数是怎么得到的;11.llm- benchmarker怎么用的,是什么评判指标;12.了解算子吗?(marlin kernel)详细说一下这个算子是什么;13.除了量化其他的方法了解吗?(压缩、减枝、LoRA)14.LoRA是什么;QLoRA是什么?为什么要用LoRA;15.具体的原理是怎么样的;16.如何将LoRA结合到TransFormer各个层?17.介绍一下TransFormer的架构;18.Encoder和Decoder是由什么组成的;19.MHA细节是怎么样的(QKV),softmax是干什么用的;20.单头注意力和多头注意力有什么区别;21.为什么MHA下面要除根号d;22.潜在多头注意力了解吗,多头注意力的作用;23.FFN详细说一下;24.残差链接有什么用;25.Layer Normalization有什么用;26.Layer Normalization和Batch  Normalization的区别;27.Qwen3的基础架构是怎么样的;28.Qwen3和Qwen2.5相比有什么区别;29.Qwen3和DeepSeek有多少个头;30.大模型要训练出思维链应该如何训练;31.如何平衡精度和推理速度,怎么做trade off的;32.了解Agent吗,做过什么agent项目33.Dense模型是什么;34.MoE、MLA是什么,详细讲一下;35.LoRA的偏置矩阵详细说一下,为什么LoRA初始化A要正态分布,B要初始化为0;36.秩是什么意思;怎么理解;37.Qwen3哪里做的好;38.快手实习项目介绍;39.经纬恒润实习项目介绍;40.了解量化交易吗;41.你平时做交易是趋势还是阶段?
你最近因为什么迷茫?
点赞 评论 收藏
分享
评论
1
9
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务