阿里巴巴大模型算法岗面经

1.实习经历穿插具体介绍
2.bceloss公式介绍用pe,优势在哪里
3.粗排有没有和精排有什么交互信息
4.序列建模的基线模型是什么
5.Linux常用命令有哪些,如何用Linux命令在两服务器间传数据
6、如何降低KV cache
7、讲讲DeepSeek中的MLA
8.讲讲最开始的自注意力机制发展到当今的一个优化路线
9.手撕最长公共子串
1.合并有序数组(双指针)
2.搜索插入位置(二分)
3.分析一下din的attention和transformer的注意力机制有什么不同
4.实习的模型更新的时期是按天为单位还是按小时为单位?
5.ESMM模型后面的论文了不了解?
6.DeepFM的FM侧是如何计算的?
7.dense类的特征可以拿来做embedding吗?
8.解释一下梯度消失的处理策略
9.手撕多头注意力,询问其变体和设计思路,以及添加策略
📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
全部评论
谢谢大佬
点赞 回复 分享
发布于 01-20 18:11 辽宁

相关推荐

1.自我介绍;2.本科毕设项目介绍;3.Retinaface和Facenet的具体网络模型;4.Retinaface是如何检测人脸的,Facenet是如何识别人脸的;5.项目的创新点有什么,评判指标是什么;6.检测和识别用的时间,其中esp8266,mg996r分别是做什么用的;7.大模型量化比赛项目介绍;8.AWQ和GPTQ是什么;9.什么模型适合用AWQ,什么模型适合用GPTQ;10.其中最优的参数是怎么得到的;11.llm- benchmarker怎么用的,是什么评判指标;12.了解算子吗?(marlin kernel)详细说一下这个算子是什么;13.除了量化其他的方法了解吗?(压缩、减枝、LoRA)14.LoRA是什么;QLoRA是什么?为什么要用LoRA;15.具体的原理是怎么样的;16.如何将LoRA结合到TransFormer各个层?17.介绍一下TransFormer的架构;18.Encoder和Decoder是由什么组成的;19.MHA细节是怎么样的(QKV),softmax是干什么用的;20.单头注意力和多头注意力有什么区别;21.为什么MHA下面要除根号d;22.潜在多头注意力了解吗,多头注意力的作用;23.FFN详细说一下;24.残差链接有什么用;25.Layer Normalization有什么用;26.Layer Normalization和Batch  Normalization的区别;27.Qwen3的基础架构是怎么样的;28.Qwen3和Qwen2.5相比有什么区别;29.Qwen3和DeepSeek有多少个头;30.大模型要训练出思维链应该如何训练;31.如何平衡精度和推理速度,怎么做trade off的;32.了解Agent吗,做过什么agent项目33.Dense模型是什么;34.MoE、MLA是什么,详细讲一下;35.LoRA的偏置矩阵详细说一下,为什么LoRA初始化A要正态分布,B要初始化为0;36.秩是什么意思;怎么理解;37.Qwen3哪里做的好;38.快手实习项目介绍;39.经纬恒润实习项目介绍;40.了解量化交易吗;41.你平时做交易是趋势还是阶段?
你最近因为什么迷茫?
点赞 评论 收藏
分享
评论
1
2
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务