快手暑期算法实习一面凉经

后续:
莫名其妙被捞起来了,约了下周的面试

---------------------原文------------------

本来投的大模型加速训练/推理岗,发的面试邮件标题也无误,却不知为何面试官是可灵团队的,面的内容是AIGC算法,全程被拷打。

共 40 min
1、开场就问我为什么要做那个小众领域的科研,答曰组里安排的没办法,然后简单介绍了一下一作顶会论文,听完后面试官直说他觉得太水了。
2、QLoRA的原理,省显存的细节
3、开始做数学题,当时面到这儿觉得就不对劲了,我投的不是研究岗啊,之前都在刷力扣,人直接麻了。
(1)一个32×32的图像,在独立同分布且服从伯努利分布时需要多少参数建模?服从马尔科夫链时呢?无明确服从法则时呢?
(2)算两个正态分布的KL散度的式子,用均值和标准差形式写出来,这个我记得是推扩散模型ELBO的某一步,但是我现场写不出来。
中间夹杂一些扩散模型原理的问答。
4、反问环节,面试官先说他很严格,要求去了发顶会,时间半年到一年,我感觉已经寄了随意问了几个关于可灵的问题,面试官说是商业机密不能回复,结束。

心里苦
全部评论
和我的那个面试官如出一辙,应该是同一个,压力拉满了
点赞 回复 分享
发布于 03-21 17:09 四川
我去,压力这么大的吗前几天刚投了快手
点赞 回复 分享
发布于 03-18 20:37 湖北

相关推荐

✅一面1️⃣深挖多模态论文2️⃣介绍transformer架构3️⃣详细说一下Decoder的因果注意力 QKV分别来自哪4️⃣Attention为什么要做scaled 不做会怎么样 为什么用根号d_k5️⃣Transformer怎么做加速训练(KV缓存) 训练和推理有什么区别(并行化)6️⃣深挖多模态大模型论文用的video-llama 讲一下大模型的结构7️⃣论文用了CoT讲一下论文的CoT是怎么样的8️⃣微调用的LoRA介绍一下LoRA9️⃣LoRA初始化怎么做的,用的秩是多少,为什么不选其他的数1️⃣0️⃣知道deepspeed和megatron吗?分别介绍一下1️⃣1️⃣论文用的deepspeed详细讲了一下三个stage分别是什么✅二面1️⃣深挖多模态和大模型的论文2️⃣Decoder文本生成有哪几种方法3️⃣还知道哪些多模态大模型4️⃣介绍一下ALBEF、BLIP5️⃣BLIP2的结构是什么  两阶段怎么训练的 有哪些损失6️⃣知道PEFT吗 讲一下LoRA7️⃣还有什么微调方法 -> prefix-tuning和P-tuning 两者分别是怎么做的 为了解决什么提出的8️⃣后面就是一些场景题✅三面1️⃣深挖论文2️⃣讲一下multi-head attention 用pytorch手撕一下 要可以实现cross attention的3️⃣讲一下你用的大模型是什么结构 特征是怎么喂给大模型的4️⃣大模型训练为什么不用SFT5️⃣LoRA是什么?有什么好处6️⃣知道RLHF吗?讲一下训练流程7️⃣接下来就是好几个场景题,电商相关的,用大模型解决prompt应该怎么设计,怎么处理prompt的输出,怎么过滤错误格式的输出📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
字节跳动三面462人在聊 查看23道真题和解析
点赞 评论 收藏
分享
评论
4
8
分享

创作者周榜

更多
牛客网
牛客企业服务