面试字节大模型(LLMs)RAG面被问麻了~

  1. LORA 原理:解释 LORA(Low-RankAdaptation)的核心思想,如何通过低秩矩阵实现参数高效微调?数学形式如何表达?
  2. Self-Attention机制:自注意力机制中 O/K/ 矩阵的作用是什么?如何通过缩放点积计算注意力权重?公式推导并解释Softmax 的意义。
  3. 位置编码:Transformer为何需要位置编码?主流 LLM(如 LLaMA、GPT)使用哪种位置编码(如 ROPE)?相比绝对/相对位置编码有何优势?
  4. Seq2Seg 模型:Seq2Seq模型的核心组件是什么?Encoder-Decoder结构如何解决长程依赖问题?
  5. RAG技术:RAG(检索增强生成)的完整链路包含哪些步骤?为什么它能提升生成质量?
  6. 大模型幻觉:大模型产生幻觉的根本原因是什么?
  7. 显存计算:7B 模型在训练和推理时的显存占用如何估算?显存与参数量、批次大小、序列长度的关系是什么?
  8. 实习与论文:详细说明实习中解决的一个技术难点,涉及哪些模型或算法?如何评估效果?
  9. 链表操作:删除链表倒数第 N 个节点的算法思路?如何用双指针法实现?边界条件(如头节点删除)如何处理?

#RAG##面试##AI##大模型#
全部评论
ttttt
1 回复 分享
发布于 06-11 14:47 广东
ttttt
1 回复 分享
发布于 05-15 13:52 浙江
tttt
1 回复 分享
发布于 05-14 16:18 北京
面试题当然可以开源给大家 后台T一下
1 回复 分享
发布于 05-09 17:24 湖南
ttt
点赞 回复 分享
发布于 06-20 21:34 江苏
ttttt
点赞 回复 分享
发布于 06-08 12:16 江苏
ttttt
点赞 回复 分享
发布于 06-04 19:11 北京
tttt
点赞 回复 分享
发布于 05-30 17:42 北京
111
点赞 回复 分享
发布于 05-29 16:14 北京
ttt
点赞 回复 分享
发布于 05-28 13:02 北京
ttt',谢谢大佬
点赞 回复 分享
发布于 05-26 17:13 湖北
ttttt
点赞 回复 分享
发布于 05-25 11:36 广东
tttt
点赞 回复 分享
发布于 05-23 16:48 山东
ttttt
点赞 回复 分享
发布于 05-22 18:17 广东
ttt
点赞 回复 分享
发布于 05-22 17:08 广东
ttt
点赞 回复 分享
发布于 05-21 17:06 香港
ttttt
点赞 回复 分享
发布于 05-21 11:38 上海
ttttt
点赞 回复 分享
发布于 05-21 11:05 日本
ttttt
点赞 回复 分享
发布于 05-21 11:04 日本
ttttt
点赞 回复 分享
发布于 05-20 19:12 山东

相关推荐

评论
6
64
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务