小红书的中台部门,具体是否属于技术部不太清楚。面试中主要针对论文和项目进行提问,可以看出面试官的能力还是不错的,提问有深度,不过不像字节那样深。 0908 一面 1. 介绍EMNLP论文 2. BERT的self-attention中Q,K,V由来,multi-head attention目的:为了关注到句子中的不同模式(比如主-谓,谓-宾)。 3. 为什么分类任务使用交叉熵损失函数,不用MSE,优点在哪里 4. 情感转移模型: a) Topic是怎么加入transformer的 b) 是否关注过将知识图谱中实体等信息加入transformer的...