首页
题库
面试
求职
学习
竞赛
More+
所有博客
搜索面经/职位/试题/公司
搜索
我要招人
去企业版
登录 / 注册
首页
>
试题广场
>
在标准 Transformer 模型中,自注意力(Self-
[单选题]
在标准 Transformer 模型中,自注意力(Self-Attention)机制是其核心组件。假设输入序列的长度为 N,模型的隐藏层维度(或称为表示维度)为 d,那么标准自注意力模块的计算复杂度主要是?
O(N * d^2)
O(N^2 · d)
O(N · d)
O(N^2 * d^2)
查看正确选项
添加笔记
求解答(0)
邀请回答
收藏(23)
分享
纠错
0个回答
添加回答
这道题你会答吗?花几分钟告诉大家答案吧!
提交观点
问题信息
深度学习
难度:
0条回答
23收藏
71浏览
热门推荐
相关试题
在CNN网络中,图A经过核为3x3...
算法工程师
顺丰集团
2019
深度学习
评论
(48)
来自
顺丰科技2019秋招视觉...
执行以下程序,理论上输出的结果应最...
Python
测试
后端开发
人工智能/算法
数据
运维/技术支持
通信
芯片/半导体
硬件开发
评论
(1)
Linux 中,下面关于磁盘挂载的...
Linux
评论
(1)
一个 Redis 实例被用作缓存,...
Redis
评论
(1)
关于 Redis 的哈希数据结构,...
Redis
评论
(1)
扫描二维码,关注牛客网
意见反馈
下载牛客APP,随时随地刷题