题解 | 简化Attention输出的元素总和

简化Attention输出的元素总和

https://www.nowcoder.com/practice/3ba85cb991d4471b81ad6d775447fc44

import sys

from numpy import ones
from numpy import triu, transpose, sqrt, exp, max, sum, zeros

def attention(n,m,h):
    X = ones((n,m))
    W1 = triu(ones((m,h)))
    W2 = triu(ones((m,h)))
    W3 = triu(ones((m,h)))
    Q = X@W1 # 矩阵相乘,请用@,千万别用*!!!
    K = X@W2
    V = X@W3
    S = (Q @ transpose(K)) / sqrt(h)

    def softmax(X):
        after_softmax = zeros((n,n))
        for l in range(len(X)): # 0,...,n-1
            fenzi = exp(X[l]) # 一个行向量
            fenmu = sum(exp(X[l])) # 一个数
            after_softmax[l] = fenzi / fenmu # 一个行向量
        return after_softmax

    Y = softmax(S) @ V
    ans = round(sum(Y))
    return ans

for line in sys.stdin:
    a = line.split()
    print(attention(int(a[0]),int(a[1]),int(a[2])))

全部评论

相关推荐

我的offer呢😡:这不才9月吗,26到明年毕业前能一直找啊,能拿下提前批,转正的,offer打牌的都是有两把刷子的,为什么非要跟他们比。如果别人是9本硕+金牌+好几段大厂实习呢?如果别人是双非通天代呢?如果别人是速通哥呢?,做好自己就行了,我们做不到他们一样提前杀死比赛,但晚点到终点也没啥关系吧
双非应该如何逆袭?
点赞 评论 收藏
分享
不愿透露姓名的神秘牛友
10-04 05:12
瑞雪兆丰年_:可以贴个超级大的校徽,以防HR眼拙
点赞 评论 收藏
分享
评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务