整体面试还是不错的,发下面经给大家参考~1.实习介绍2.在微调大模型时使用过哪些框架3.CLIP模型的zero-shot能力是如何实现的?4.Transformer中Pre-Norm和Post-Norm的设计差异是什么?对模型训练稳定性和性能有何影响?5.在生成式大模型(如LLaMA、GPT)中,为何通常采用Decoder-only架构而非Encoder-Decoder结构?6.请描述大模型中自然语言理解模块的具体实现方案,包括语义解析和意图识别的关键技术。7.针对Transformer模型推理过程,会采用哪些优化手段8.请阐述检索增强生成(RAG)的核心原理,并说明如何通过RAG缓解大模型的幻觉问题。9.vLLM框架的核心优化原理是什么?其在动态批处理和显存管理上有哪些创新设计?10请对比RLHF、PPO、DPO算法的技术差异、优缺点及适用场景