字节秋招抖音大模型算法一面11.28
一面:
1.面试官对实验室的横向项目完全不感兴趣,对前一段实习项目兴趣比较大
2.详细问了实习项目的细节
3.之前实习做过用户画像这一块,与现在面试的岗位工作职责有交叉,于是详细问了这一部分是怎么做的
4.Encoder与decoder的中Attention区别?
5.Attention如何计算?为什么除以根号下Dk?mask attention是如何实现的?
6.除了MHA还知道哪些(GQA MQA MLA)讲原理
7.为什么要用位置编码?为什么要用sin_cos?
8.问之前实习的Agent的设计逻辑,问创新方法的实现
9.问Agent的工具tool的设计,是否是workflow形式
10.问数据的输入输出格式如何保证大模型输出稳定的json做了哪些工作
11.代码题:合并两个有序链表
1.面试官对实验室的横向项目完全不感兴趣,对前一段实习项目兴趣比较大
2.详细问了实习项目的细节
3.之前实习做过用户画像这一块,与现在面试的岗位工作职责有交叉,于是详细问了这一部分是怎么做的
4.Encoder与decoder的中Attention区别?
5.Attention如何计算?为什么除以根号下Dk?mask attention是如何实现的?
6.除了MHA还知道哪些(GQA MQA MLA)讲原理
7.为什么要用位置编码?为什么要用sin_cos?
8.问之前实习的Agent的设计逻辑,问创新方法的实现
9.问Agent的工具tool的设计,是否是workflow形式
10.问数据的输入输出格式如何保证大模型输出稳定的json做了哪些工作
11.代码题:合并两个有序链表
全部评论
相关推荐

