1.Transformer的多头注意力的作用:从GCN的角度就是探索更多的权重矩阵。原文的解释是MultiHead-Attention 提供了多个“表示子空间”,可以使模型在不同位置上关注来自不同“表示子空间”的信息。 即通过MultiHead,模型可以捕捉到更加丰富的特征信息。这里的多个表示子空间其实就是GCN里的多个权重矩阵。2.无序数组的中位数:这道题应该算是本科算法课的入门题了,找中位数和找任意第k个数是一样的方法。方法一:快排一次后,检查k落在哪个区域,然后对那个区域再进行一次快排。如此反复,可得答案。方法二:同样使用快排,但是对基准数不再随机,而是尽可能找出让两段区域长度相等的划分...