小米 AI 大模型面试
1.自我介绍&项目深挖
2.针对 RAG 项目
3.使用的 Embedding 模型结构是什么?输出向量维度是多少?
4. Transformer 更新哪些参数?
5.如何缓解大模型的幻觉问题?
6.请描述 Transformer 的基本结构,并解释自注意力机制。
7.输入向量的维度是多少?
8.LayerNorm 是对哪个维度做归一化?
9.你了解哪些微调方式?
10.如何优化大模型的训练和推理效率?
11.Prompt Tuning 和 P - Tuning 的区别是什么?
12.如何让大模型处理更长的文本?
13.代码能力考察:请手写反转链表。
📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
2.针对 RAG 项目
3.使用的 Embedding 模型结构是什么?输出向量维度是多少?
4. Transformer 更新哪些参数?
5.如何缓解大模型的幻觉问题?
6.请描述 Transformer 的基本结构,并解释自注意力机制。
7.输入向量的维度是多少?
8.LayerNorm 是对哪个维度做归一化?
9.你了解哪些微调方式?
10.如何优化大模型的训练和推理效率?
11.Prompt Tuning 和 P - Tuning 的区别是什么?
12.如何让大模型处理更长的文本?
13.代码能力考察:请手写反转链表。
📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
全部评论
相关推荐
点赞 评论 收藏
分享
