1. 先说一下你对 LLM 的基本理解,预训练、指令微调和对齐分别在做什么LLM 本质上是一个大规模参数化语言模型,训练目标通常是根据上下文预测下一个 token。预训练阶段主要靠海量通用语料学习语言规律、知识分布和上下文建模能力,这一步决定模型的基础能力。指令微调是在预训练模型之上,用更贴近问答、助手式交互的数据继续训练,让模型学会“按要求回答”。对齐通常是进一步让模型输出更符合人类偏好和安全要求,比如减少胡说、提升可控性、避免明显有害输出。如果从工程角度看,预训练决定上限,微调决定风格和任务适配,对齐决定可用性。2. RAG 的核心流程是什么,为什么它能缓解大模型幻觉RAG 一般分成文档切...