LORA 原理:解释 LORA(Low-RankAdaptation)的核心思想,如何通过低秩矩阵实现参数高效微调?数学形式如何表达?Self-Attention机制:自注意力机制中 O/K/ 矩阵的作用是什么?如何通过缩放点积计算注意力权重?公式推导并解释Softmax 的意义。位置编码:Transformer为何需要位置编码?主流 LLM(如 LLaMA、GPT)使用哪种位置编码(如 ROPE)?相比绝对/相对位置编码有何优势?Seq2Seg 模型:Seq2Seq模型的核心组件是什么?Encoder-Decoder结构如何解决长程依赖问题?RAG技术:RAG(检索增强生成)的完整链路包含哪...