腾讯实习nlp算法一面凉
继续来分享下之前的面经~欢迎友好讨论,信息共享
拷打项目,然后是问题:
1. ROPE为什么不会对embedding后的词意造成影响?
2. BF16和FP16有什么区别,为什么现在主要用BF16不用FP16?
3. transformer的点积注意力,为什么是点积而不是纯粹的余弦相似度
手撕:数组里重复的数据
拷打项目,然后是问题:
1. ROPE为什么不会对embedding后的词意造成影响?
2. BF16和FP16有什么区别,为什么现在主要用BF16不用FP16?
3. transformer的点积注意力,为什么是点积而不是纯粹的余弦相似度
手撕:数组里重复的数据
全部评论
确定问这些问题吗?感觉这个简单做过应该都能答上来
相关推荐
查看6道真题和解析