面试字节大模型(LLMs)RAG面被问麻了~

  1. LORA 原理:解释 LORA(Low-RankAdaptation)的核心思想,如何通过低秩矩阵实现参数高效微调?数学形式如何表达?
  2. Self-Attention机制:自注意力机制中 O/K/ 矩阵的作用是什么?如何通过缩放点积计算注意力权重?公式推导并解释Softmax 的意义。
  3. 位置编码:Transformer为何需要位置编码?主流 LLM(如 LLaMA、GPT)使用哪种位置编码(如 ROPE)?相比绝对/相对位置编码有何优势?
  4. Seq2Seg 模型:Seq2Seq模型的核心组件是什么?Encoder-Decoder结构如何解决长程依赖问题?
  5. RAG技术:RAG(检索增强生成)的完整链路包含哪些步骤?为什么它能提升生成质量?
  6. 大模型幻觉:大模型产生幻觉的根本原因是什么?
  7. 显存计算:7B 模型在训练和推理时的显存占用如何估算?显存与参数量、批次大小、序列长度的关系是什么?
  8. 实习与论文:详细说明实习中解决的一个技术难点,涉及哪些模型或算法?如何评估效果?
  9. 链表操作:删除链表倒数第 N 个节点的算法思路?如何用双指针法实现?边界条件(如头节点删除)如何处理?

#大模型面试##大模型##AI##面试##RAG#
全部评论
面试题当然可以开源给大家 后台T一下
1 回复 分享
发布于 06-04 16:39 湖南
求t一份
点赞 回复 分享
发布于 07-04 10:27 广东
求T一份
点赞 回复 分享
发布于 06-29 21:02 黑龙江
牛uT一份
点赞 回复 分享
发布于 06-08 19:39 浙江

相关推荐

除去周末和学校考试请的几天假一共实习有20天了,这20天mt给的任务都不是太有技术含量实现个模糊查询之类的,就跟着搞了几天,然后看代码的时候发现数据库写的一坨就去优化数据库了,然后前两天搞完之后问mt还有没有活,mt想不出来让我先等等,我正好看快开始秋招了索性直接背八股和刷算法了,结果好像被ld看到了,和ld谈话时我也不小心说最近秋招压力比较大。然后晚上开会的时候ld就说我做的活不够多,组里面人每天都很忙,显得我有点太轻松了(因为实习生正常是1065的,我之前一直也都是6点直接走,平时活做差不多就摸摸鱼)(但是mt都不怎么给我派任务我怎么做?我都问mt两次了也没想到让我做什么),然后ld告诉我不用着急搞秋招的事情,说音视频这边公司是做的比较好的,可以学着搞这方面,而不是天天搞Java背八股那些。但是mt也没给我这方面的任务啊,我看他们工作也就是处理一些工单,修bug之类的。所以牛油们我现在应该做什么,真去找mt要任务然后学音视频处理这些吗,这在秋招算亮点吗?还是不管ld的话继续摸摸鱼偷产出看八股,还是说正常做mt给的任务(虽然可能不太重要)。(mt和ld人还算不错,PUA这点对于我来说根本无所谓,管理层用这些手段已经司空见惯了,但是和ld和mt坐的太近了导致我干别的有点提心吊胆,而且mt他们每天太忙了,想开个审批会好几天都没空,导致我也不太想去问问题打扰他们)
点赞 评论 收藏
分享
今天 11:12
门头沟学院 Java
真的是误闯天家了,太难了
投递虾皮信息等公司7个岗位
点赞 评论 收藏
分享
评论
5
34
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务