第 16 题:Full Fine-tuning / LoRA / Adapter / Prompt

第 16 题:Full Fine-tuning / LoRA / Adapter / Prompt Tuning 对比

题目

对比 Full Fine-tuning、LoRA、Adapter、Prompt Tuning 的优缺点。

一、Full Fine-tuning(全量微调)

  • 做法:用下游数据更新全部模型参数。
  • 优点:表达能力最强,适合数据充足、任务与预训练差异大的场景。
  • 缺点:显存与算力需求高,易过拟合小数据,多任务需多份完整模型。

二、LoRA(Low-Rank Adaptation)

  • 做法:冻结原权重,只学习低秩增量 ,通常加在 attention 与 FFN 部分。
  • 优点:参数量小、显存省、可多任务多套 切换;推理可合并为单权重。
  • 缺点:秩 需调节;极端任务上可能不如全量。

三、Adapter

  • 做法:在层内插入小模块(如两层线性+激活),只训练 Adapter,主权重冻结。
  • 优点:模块化、易插拔、多任务共享主干、各任务独立 Adapter。
  • 缺点:增加前向深度与少量计算;若每层都加,总参数量仍可观。

四、Prompt Tuning(提示微调)

剩余60%内容,订阅专栏后可继续查看/也可单篇购买

Ai Agent:面试300问 文章被收录于专栏

《AI Agent 300 问》专为备战 AI Agent 相关岗位的求职者打造,适配校招、社招全场景,覆盖算法研发、产品、解决方案等全岗位。专栏汇总 300 道大厂高频面试真题,全维度覆盖提示工程、智能体规划推理、记忆机制、工具调用、多智能体协作、框架落地、行业应用等核心领域,拆解考点底层逻辑,分享一线实战经验,助你一站式通关高薪面试。

全部评论

相关推荐

点赞 评论 收藏
分享
评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务