首页 > 试题广场 >

LoRA(Low-Rank Adaptation)微调技术的

[单选题]
LoRA(Low-Rank Adaptation)微调技术的核心思想是什么?
  • 只训练模型的最后几层
  • 通过低秩矩阵分解来减少可训练参数
  • 冻结所有参数,只添加新的层
  • 使用更大的学习率训练全部参数
码一下,最近几年lora一直很火
发表于 2025-06-16 12:17:22 回复(0)