京东暑期实习算法工程师-大模型一面挂

项目一:模型微调相关(面试问答总结)

首先让我介绍了简历中的第一个项目——模型微调相关项目。在交流过程中,面试官主要围绕以下几个方面进行了提问:

1. 指令遵循能力(未微调情况下的提升方式)

面试官提问:
如果不进行微调,如何让模型在回答指令时具有更高的指令遵循能力(例如格式准确率更高)?

2. 训练数据来源与构造

  • 训练数据是如何获取的?
  • 数据是如何构造和设计的?

3. Transformer 中的注意力机制

  • 讲解 注意力机制(Attention Mechanism) 的基本原理。
  • 为什么在计算注意力分数时需要 除以
  • 为什么是 ,而不是

4. LoRA(Low-Rank Adaptation)

  • 介绍 LoRA 的基本思想与实现方式
  • 为什么 LoRA 算法属于低秩(Low-Rank)方法
  • 从数学角度解释:LoRA 是如何保证 W + ΔW 仍然保持低秩结构的?

5. 手撕代码题

要求使用 PyTorch 或 NumPy 实现:

计算一个 N × D 的矩阵与一个 M × D 的矩阵之间的 欧氏距离 (a-b)^2
返回一个 N × M 的矩阵,并且 不能使用 for 循环

6. 反问环节

最后面试官询问:
“你有什么问题想要问我的吗?”

#牛客在线求职答疑中心##今天你投了哪些公司?##牛客解忧铺#
全部评论
想请教下,我看官网现在没算法工程师-大模型这个岗位了,之前还打算投来着。佬知道为啥吗
点赞 回复 分享
发布于 03-14 01:54 北京
哎呀,京东暑期实习算法工程师一面挂了,有点小失落呢~不过没关系,面试经验也是很宝贵的收获! 关于你提到的面试问题,我来帮你梳理一下思路: 1. 指令遵循能力:可以通过精心设计的提示词(prompt engineering)、思维链(chain of thought)或者使用few-shot learning来提升模型在未微调情况下的指令遵循能力。 2. 训练数据来源与构造:通常可以从公开数据集、特定领域文档或者用户交互数据中获取,然后进行清洗、标注和格式化处理。 3. Transformer注意力机制:除以√d是为了防止点积过大导致softmax函数梯度消失,d是维度,√d是一个经验值,平衡了梯度和数值稳定性。 4. LoRA:通过将原始权重矩阵分解为低秩矩阵来减少参数量,W + ΔW保持低秩是因为ΔW被设计为低秩矩阵。 5. 欧氏距离计算:可以用PyTorch的广播机制实现,比如: ```python import torch def euclidean_distance(a, b): return ((a.unsqueeze(1) - b.unsqueeze(0)) ** 2).sum(dim=2) ``` 想了解更多面试技巧或者需要模拟面试的话,可以点击我的头像私信我哦~我们一起加油准备下一次面试!
点赞 回复 分享
发布于 03-11 15:06 AI生成

相关推荐

04-24 17:20
门头沟学院 Java
发一下问题给大家参考,攒攒人品!1.实习拷打2.拷打第一个项目:如果长表格被切分到了两个不同的Chunk,如何保证大模型在回答时不丢失表头信息?为什么不直接把图片转成描述再做文本检索,而是做视觉Embedding?有什么好处?3.拷打第二个项目:你是如何设定记忆总结的触发条件的?是根据对话轮数总结,还是根据Token消耗量来总结?如果测评量表返回的数据量非常大,超过了模型窗口,在不丢失核心指标的前提下,如何对工具结果进行预压缩?4.为什么在做RAG时,切片不能切得太长,也不能切得太短?5.什么是混合检索?为什么一些场景下,只用向量检索效果不好?6.如何在Prompt中设计拒答逻辑,让模型在知识库没有相关内容时,不强行生成答案?7.什么是CoT?它在提升Agent逻辑推理能力方面的原理是什么?8.在Function Call的过程中,大模型返回给后端的是真实运行的结果,还是调用的意图?9.拷打Transformer10.了解MySQL吗?在MySQL中,如果要存储用户的对话记录,你会选择哪种字段类型?为什么?11.Redis有哪些常见的数据结构?12.为什么在大模型应用中,会把一些重复的问题和答案存入Redis缓存?13.介绍一下如何利用Redis存储大模型的响应结果?14.如果两个用户的提问意思一样但表达不同,如何判断该不该命中Redis里的缓存?15.在分布式Agent环境下,用户的Session应该存放在哪里?16.手撕:无重复字符最长子串
查看16道真题和解析
点赞 评论 收藏
分享
评论
6
20
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务