首页 > 试题广场 >

关于大型语言模型(LLM)的 参数效率微调(Paramete

[不定项选择题]

关于大型语言模型(LLM)的 参数效率微调(Parameter-Efficient Fine-Tuning) 方法,下列哪些说法是正确的?

  • 适应新任务时,只需更新模型的一小部分参数
  • LoRA(Low-Rank Adaptation)是一种参数效率微调的方法
  • 参数效率微调的方法通常会显著降低模型的性能
  • 这些方法可以显著减少部署大型模型的存储成本,并在多任务场景下降低计算资源需求
部署难道就不需要存预训练参数了吗?为什么会减少存储成本?
发表于 2025-09-30 17:24:53 回复(0)