百度多模态算法一面面经

八股:
1,lora的原理,lora是否会增加训练时间rank,rank_alpha在训练的时候有没有作用,有没有尝试了解其他的lora
2,Wan2.1的模型架构细节
3,Wan2.1的图像特征是如何注入进去的,文本特征是如何注入进去的
4,Wan2.2的模型架构,细节,高噪专家和低噪专家是如何转换选择的
5,Wan2.2 划分高噪专家和低噪专家是根据什么划分的,信噪比,具体是这么做的
6,重参数化技巧原理
7,Flow Matching原理,gtv是怎么计算的
8,DDPM和Flow Matching的区别
9,DDPM在训练的时候为什么不是先加噪1000步然后再去噪,而是随机选一个时间步加噪再学习去噪过程
10,VQ-VAE介绍
11,ViT是如何把图像转换为tocken序列的
手撕:
LayerNorm,股票的最佳买卖时机I
全部评论

相关推荐

评论
点赞
1
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务