第 11 题:Encoder-only / Decoder-only / Encoder-Dec

第 11 题:Encoder-only / Decoder-only / Encoder-Decoder 适用场景

题目

对比 Encoder-only、Decoder-only、Encoder-Decoder 架构的适用场景。

一、Encoder-only(仅编码器)

  • 结构:仅 Transformer 编码器,双向注意力,无因果掩码;通常用 [CLS] 或整句表示做分类/回归。
  • 代表:BERT、RoBERTa。
  • 适用理解型任务——文本分类、情感、NLI、抽取、检索等,需要“看到整句/整段”的语义表示。
  • 不擅:直接生成连贯长文(无自回归解码结构)。

二、Decoder-only(仅解码器)

  • 结构:仅 Transformer 解码器,因果自注意力 + 自回归生成。
  • 代表:GPT、LLaMA、ChatGPT。
  • 适用生成与通用对话——开放生成、对话、摘要、续写、以及通过 prompt 做的多种任务(零样本/少样本/CoT)。
  • 特点:单一架构、易扩展、易做 ICL;不显式区分“编码输入”和“解码输出”,适合“一切皆续写”的范式。

三、Encoder-Decoder(编码器-解码器)

  • 结构:编码器处理源序列(双向),解码器自回归生成目标序列,并通过 cross-attention 看编码器输出。
  • 代表:T5、BART、原始 Transformer(机器翻译)。

剩余60%内容,订阅专栏后可继续查看/也可单篇购买

Ai Agent:面试300问 文章被收录于专栏

《AI Agent 300 问》专为备战 AI Agent 相关岗位的求职者打造,适配校招、社招全场景,覆盖算法研发、产品、解决方案等全岗位。专栏汇总 300 道大厂高频面试真题,全维度覆盖提示工程、智能体规划推理、记忆机制、工具调用、多智能体协作、框架落地、行业应用等核心领域,拆解考点底层逻辑,分享一线实战经验,助你一站式通关高薪面试。

全部评论

相关推荐

评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务