首页
题库
面试
求职
学习
竞赛
More+
所有博客
搜索面经/职位/试题/公司
搜索
我要招人
去企业版
登录 / 注册
首页
>
试题广场
>
大语言模型的上下文窗口长度限制主要源于Transformer
[单选题]
大语言模型的上下文窗口长度限制主要源于Transformer的哪个固有特性?
模型层数过多导致梯度不稳定
自注意力机制的计算开销过高
位置编码的表示能力有限
训练数据的覆盖范围不足
查看答案及解析
添加笔记
求解答(0)
邀请回答
收藏(38)
分享
纠错
1个回答
添加回答
0
郑锦凡
上下文窗口 = 大模型一次最多能同时读、能记住、能拿来思考的所有文字总量(用 token 算)。就是模型的一次性记忆上限。而Transformer 自注意力是 O (n²)文本越长计算量爆炸所以必须给一个硬性上限,这个上限就是上下文窗口。
发表于 2026-05-01 12:29:35
回复(0)
这道题你会答吗?花几分钟告诉大家答案吧!
提交观点
问题信息
大模型概念
难度:
1条回答
38收藏
57浏览
热门推荐
相关试题
在使用AI大模型进行文本生成时,"...
大模型概念
评论
(0)
在AI大模型的训练中,"过拟合"通...
大模型概念
评论
(0)
在AI大模型的应用中,"微调"的主...
大模型概念
评论
(0)
在分布式训练大型模型时,模型并行的...
大模型概念
评论
(1)
扫描二维码,关注牛客网
意见反馈
下载牛客APP,随时随地刷题