首页
题库
面试
求职
学习
竞赛
More+
所有博客
搜索面经/职位/试题/公司
搜索
我要招人
去企业版
登录 / 注册
首页
>
试题广场
>
当观察到大型Transformer模型在长文本推理时出现上下
[单选题]
当观察到大型Transformer模型在长文本推理时出现上下文丢失现象,最可能由什么架构限制引起?
位置编码外推失效
残差连接梯度消失
前馈网络宽度不足
层归一化计算误差累积
查看正确选项
添加笔记
求解答(0)
邀请回答
收藏(82)
分享
纠错
1个回答
添加回答
0
爱跳的Mario
位置编码外推失效是Transformer模型在长文本推理中出现上下文丢失的最常见架构限制
发表于 2026-04-10 22:08:02
回复(0)
这道题你会答吗?花几分钟告诉大家答案吧!
提交观点
问题信息
大模型概念
难度:
1条回答
82收藏
61浏览
热门推荐
相关试题
在AI大模型的应用中,"微调"的主...
大模型概念
评论
(0)
在AI大模型的训练中,"过拟合"通...
大模型概念
评论
(0)
在使用AI大模型进行文本生成时,"...
大模型概念
评论
(0)
混合专家(MoE)模型训练中,部分...
大模型开发
评论
(1)
在大型语言模型的文本生成任务中,集...
大模型概念
评论
(1)
扫描二维码,关注牛客网
意见反馈
下载牛客APP,随时随地刷题