字节大模型面经合集(二)
1. 大模型相关经历深挖:你项目里最核心的贡献是什么,怎么验证有效
2. 对比学习 loss:负样本和正样本拉不开/太像了,你会怎么改损失或采样
3. FlashAttention 跟普通 attention 的差异?实现里 QK^T、softmax、PV 这几步怎么落
4. 3D 并行里 DP/DDP 你怎么理解;实际落地时通信瓶颈一般卡在哪些环节
5. 14B:FP16 权重大概多大;训练还要加哪些;INT8 大概能省多少
6. torch.contiguous() 干嘛的?推理为什么在意连续性
7. 代码:读 txt 井字棋(3×3),判断当前玩家是否获胜
8. 交叉熵损失:解释/怎么写
9. 线性回归用 SGD:更新公式怎么推/怎么写
⭕如果你现在:
- 春招/秋招没方向
- 简历没人看
- 面试总挂
- 不知道怎么准备
📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
2. 对比学习 loss:负样本和正样本拉不开/太像了,你会怎么改损失或采样
3. FlashAttention 跟普通 attention 的差异?实现里 QK^T、softmax、PV 这几步怎么落
4. 3D 并行里 DP/DDP 你怎么理解;实际落地时通信瓶颈一般卡在哪些环节
5. 14B:FP16 权重大概多大;训练还要加哪些;INT8 大概能省多少
6. torch.contiguous() 干嘛的?推理为什么在意连续性
7. 代码:读 txt 井字棋(3×3),判断当前玩家是否获胜
8. 交叉熵损失:解释/怎么写
9. 线性回归用 SGD:更新公式怎么推/怎么写
⭕如果你现在:
- 春招/秋招没方向
- 简历没人看
- 面试总挂
- 不知道怎么准备
📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
全部评论
相关推荐
昨天 00:21
安徽理工大学 游戏前端
不会做题的小熊:我感觉我就算是找不到工作,我也不会作弊进去,作弊进去感觉一方面是自己不踏实,其次就是都靠作弊了,那后面肯定工作的心态是不一样的,没有一种内驱力。 点赞 评论 收藏
分享
点赞 评论 收藏
分享
