攒攒人品!有面试过同岗的朋友欢迎评论区交流1. LoRA 微调原理:微调哪些层?常用训练参数设置:epoch、learning_rate 等。2. RAG 切片实现方法:如何设计和优化切片过程?3. 微调中的常见问题与解决方案:面试官特别关注实际踩过的坑和解决思路。4. Embedding 召回优化策略:如何提高召回效果和模型效率?5. 复读问题分析:原生模型复读不严重,微调后却复读明显,原因何在?感觉最近的模型不咋重复啊。6. 领域知识注入:LoRA 微调能否有效注入领域知识?效果如何?7. 大模型幻觉(Hallucination)解决方案:如何缓解模型幻觉问题,稳定输出?8. 优化器考点:Loss 除以 10 和学习率除以 10 有什么区别?9. Self-Attention 的线性变换 (QKV):为什么要做 QKV 线性变换?起初真懵了,为什么,你说为什么?10. 机器学习懂么?11. Self-Attention 中的 Softmax:为什么需要 Softmax?算法题挑战题目: 给定两个字符串,比如 s1=acdk, s2=ckad,每次可以将 s1 中任意一个字母移到末尾,问最少移动次数使得 s1=s2。如果无法匹配,返回 -1。