首页
题库
面试
求职
学习
竞赛
More+
所有博客
搜索面经/职位/试题/公司
搜索
我要招人
去企业版
登录 / 注册
首页
>
试题广场
>
在标准 Transformer 模型中,自注意力(Self-
[单选题]
在标准 Transformer 模型中,自注意力(Self-Attention)机制是其核心组件。假设输入序列的长度为 N,模型的隐藏层维度(或称为表示维度)为 d,那么标准自注意力模块的计算复杂度主要是?
O(N * d^2)
O(N^2 · d)
O(N · d)
O(N^2 * d^2)
查看答案及解析
添加笔记
求解答(0)
邀请回答
收藏(21)
分享
纠错
0个回答
添加回答
这道题你会答吗?花几分钟告诉大家答案吧!
提交观点
问题信息
深度学习
难度:
0条回答
21收藏
50浏览
热门推荐
相关试题
在CNN网络中,图A经过核为3x3...
算法工程师
顺丰集团
2019
深度学习
评论
(48)
来自
顺丰科技2019秋招视觉...
一般情况下,MELF型片式陶瓷电容...
元器件
评论
(1)
如果你在处理一个涉及多个不同大小、...
机器学习
评论
(1)
磁珠(Ferrite Bead)用...
元器件
评论
(1)
在处理一个无法完全加载到内存中的海...
机器学习
评论
(1)
扫描二维码,关注牛客网
意见反馈
下载牛客APP,随时随地刷题