首页 > 试题广场 >

在《AttentionIsAllYouNeed》谷歌提出了T

[不定项选择题]

在《Attention Is All You Need》谷歌提出了Transformer,以下哪些结构出现在了原文中的Transformer里 。

  • Multi-Head Attention

  • positional encoding

  • batch normalization

  • feed-forward network

https://blog.csdn.net/dhaiuda/article/details/115437887
发表于 2021-09-05 05:24:13 回复(0)