算法面经3:nlp和llm,商汤科技
商汤 LLM (2+0)🥲 二面后挂了
1. 主要是以项目为主,讲完项目,提问发散问题以及八股。
2. Baichuan2-7B的架构讲一下,有什么特别之处?
3. Lora微调7B模型,可训练参数是多少?显存占用如何?
4. 介绍下Lora以及qlora的区别
5. 其它多模态对齐方式有哪些?
6. LSTM与Transformer的区别,以及后者的优势?
7. 讲解下scaling law
8. 预训练一般分为哪些阶段,每个阶段的特点有何区别?
#春招# #实习# #秋招# #ai算法工程师# #大模型# #nlp算法工程师# #商汤科技#
1. 主要是以项目为主,讲完项目,提问发散问题以及八股。
2. Baichuan2-7B的架构讲一下,有什么特别之处?
3. Lora微调7B模型,可训练参数是多少?显存占用如何?
4. 介绍下Lora以及qlora的区别
5. 其它多模态对齐方式有哪些?
6. LSTM与Transformer的区别,以及后者的优势?
7. 讲解下scaling law
8. 预训练一般分为哪些阶段,每个阶段的特点有何区别?
#春招# #实习# #秋招# #ai算法工程师# #大模型# #nlp算法工程师# #商汤科技#
全部评论
佬几个项目
相关推荐
不午睡会死仙人Zz:分享一个自己做的GitHub面试题整理项目0voice/Campus_recruitment_interview_questions,积德积德,许愿自己和大家都能过面
点赞 评论 收藏
分享
田心今心:打招呼改一下,把实习半年以上随时到岗放第一行,因为ssob的hr不点击看的时候只能看前面几个字,你前面几个字hr获取不到什么信息,也就不会点进来看
点赞 评论 收藏
分享