首页
题库
面试
求职
学习
竞赛
More+
所有博客
搜索面经/职位/试题/公司
搜索
我要招人
去企业版
登录 / 注册
首页
>
试题广场
>
当观察到大型Transformer模型在长文本推理时出现上下
[单选题]
当观察到大型Transformer模型在长文本推理时出现上下文丢失现象,最可能由什么架构限制引起?
位置编码外推失效
残差连接梯度消失
前馈网络宽度不足
层归一化计算误差累积
查看正确选项
添加笔记
求解答(0)
邀请回答
收藏(83)
分享
纠错
1个回答
添加回答
0
爱跳的Mario
位置编码外推失效是Transformer模型在长文本推理中出现上下文丢失的最常见架构限制
发表于 2026-04-10 22:08:02
回复(0)
这道题你会答吗?花几分钟告诉大家答案吧!
提交观点
问题信息
大模型概念
难度:
1条回答
83收藏
169浏览
热门推荐
相关试题
在AI大模型的训练中,"过拟合"通...
大模型概念
评论
(0)
在AI大模型的应用中,"微调"的主...
大模型概念
评论
(0)
在使用AI大模型进行文本生成时,"...
大模型概念
评论
(0)
在一个 Kafka 集群中,某分区...
Kafka
评论
(1)
在Spring Web应用中,若希...
Spring
评论
(1)
扫描二维码,关注牛客网
意见反馈
下载牛客APP,随时随地刷题