百度计算机视觉算法研发提前批

今天一面,我感觉大抵是凉了
投的时候看见里面有 3D 视觉岗,就投了,结果是智能创作平台捞的我,我一查发现他们是做生成模型的。虽然感觉凉的概率比较大,但是还是认真准备了

面试时,面试官问了什么是 stable diffusion 
目标检测网络知道哪些,详细说下
对抗生成网络说下,大模型微调的策略都有哪些(这些我都答上了,不过其中 stable diffusion 的文本特征和图像特征怎么对齐,这个我就不会了,就这个没答上来)
全程也没手撕,24 分钟结束,估计是凉了
全部评论
hi,发面试邮件里有coding链接吗,有是不是就意味着有手撕
1 回复 分享
发布于 2024-07-21 13:07 江苏
学长怎么还在面
点赞 回复 分享
发布于 2024-08-15 16:36 河南
应该也不只有这个部门需要3d的吧,这是咋分的,还是纯看运气
点赞 回复 分享
发布于 2024-08-09 12:48 北京
百度商业研发部,我们部门还有算法hc,有兴趣可以私聊
点赞 回复 分享
发布于 2024-07-23 14:02 北京
共享了,已经结束嘞
点赞 回复 分享
发布于 2024-07-22 10:29 天津
555简历筛选绿了得4.5天了还没有部门捞我!
点赞 回复 分享
发布于 2024-07-20 21:18 陕西

相关推荐

✅一面1️⃣深挖多模态论文2️⃣介绍transformer架构3️⃣详细说一下Decoder的因果注意力 QKV分别来自哪4️⃣Attention为什么要做scaled 不做会怎么样 为什么用根号d_k5️⃣Transformer怎么做加速训练(KV缓存) 训练和推理有什么区别(并行化)6️⃣深挖多模态大模型论文用的video-llama 讲一下大模型的结构7️⃣论文用了CoT讲一下论文的CoT是怎么样的8️⃣微调用的LoRA介绍一下LoRA9️⃣LoRA初始化怎么做的,用的秩是多少,为什么不选其他的数1️⃣0️⃣知道deepspeed和megatron吗?分别介绍一下1️⃣1️⃣论文用的deepspeed详细讲了一下三个stage分别是什么✅二面1️⃣深挖多模态和大模型的论文2️⃣Decoder文本生成有哪几种方法3️⃣还知道哪些多模态大模型4️⃣介绍一下ALBEF、BLIP5️⃣BLIP2的结构是什么  两阶段怎么训练的 有哪些损失6️⃣知道PEFT吗 讲一下LoRA7️⃣还有什么微调方法 -> prefix-tuning和P-tuning 两者分别是怎么做的 为了解决什么提出的8️⃣后面就是一些场景题✅三面1️⃣深挖论文2️⃣讲一下multi-head attention 用pytorch手撕一下 要可以实现cross attention的3️⃣讲一下你用的大模型是什么结构 特征是怎么喂给大模型的4️⃣大模型训练为什么不用SFT5️⃣LoRA是什么?有什么好处6️⃣知道RLHF吗?讲一下训练流程7️⃣接下来就是好几个场景题,电商相关的,用大模型解决prompt应该怎么设计,怎么处理prompt的输出,怎么过滤错误格式的输出📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
字节跳动三面461人在聊 查看23道真题和解析
点赞 评论 收藏
分享
评论
4
14
分享

创作者周榜

更多
牛客网
牛客企业服务