字节多模态大模型一面面经
1.自我介绍和过项目
2.知道 deepspeed 和 megatron 吗,分别介绍一下
3.Decoder 文本生成有哪几种方法
4.Attention 为什么要做scaled ,不做会怎么样,为什么用根号 d _ k
5.说一下 Decoder 的因果注意力, QKV 分别来自哪
6.深挖多模态大模型论文用的video - llama ,讲一下大模型的结构
7.LoRA 初始化怎么做的,用的秩是多少,为什么不选其他的数
8. 介绍一下 ALBEF 、 BLIP
        2.知道 deepspeed 和 megatron 吗,分别介绍一下
3.Decoder 文本生成有哪几种方法
4.Attention 为什么要做scaled ,不做会怎么样,为什么用根号 d _ k
5.说一下 Decoder 的因果注意力, QKV 分别来自哪
6.深挖多模态大模型论文用的video - llama ,讲一下大模型的结构
7.LoRA 初始化怎么做的,用的秩是多少,为什么不选其他的数
8. 介绍一下 ALBEF 、 BLIP
全部评论 
 谢谢大佬
佬是双九吗,面试机会多吗
相关推荐
 查看21道真题和解析
查看21道真题和解析