字节大模型Agent算法二面

项目深挖
1.训练时显存占用高的瓶颈在哪?做了哪些显存优化?
2.如果重新做一次,你会在哪些环节提前做ablation?
3.在多Agent系统中,如何保证异步任务执行的稳定性和结果一致性?
4.如果Agent推理API需要低延迟响应,你会从哪些方面做系统级优化?
5.你做Prompt优化时,是如何判断优化后的Prompt在Agent推理链路中性能提升的?用什么指标来衡量?
6.你提到用DeepSpeed做SFT训练,请讲一下DeepSpeedZeROStage1-3的区别,以及什么时候用FSDP会更好?
7.在你的问答Agent项目中,数据集构造的自动化流程是怎么实现的?
8.你是如何利用多Agent协同来提高推理正确率的?调度策略如何实现?
9.介绍一下RAG的整体流程。在Agent落地场景中,RAG会遇到哪些延迟和正确率问题?你怎么优化召回链路?
八股
1.AdamW与Adam在权重衰减上的实现差异?
2.梯度累积等价于batch扩大的严格条件是什么?
3.PPO的核心目标函数是什么?每个符号的物理意义?
4.相比PPO,GRPO的"Group"体现在哪一步?
5.KL散度在RLHF阶段出现的位置、作用以及过大/过小分别会导致什么现象?
6.Multi-Agent场景里,Reflection模块与Memory模块的输入输出各自是什么?它们如何解耦又能互相增强?
全部评论
m
点赞 回复 分享
发布于 03-05 01:24 广东
你做Prompt优化时,是如何判断优化后的Prompt在Agent推理链路中性能提升如何回答的
点赞 回复 分享
发布于 02-05 22:26 湖南
感谢分享,祝好运
点赞 回复 分享
发布于 01-29 12:06 贵州

相关推荐

祝大家都能拿到满意的Offer!1. 项目拷打2. 详细阐述Transformer的底层原理,并说明其能够替代RNN的核心优势;结合Transformer架构的成熟度,分析Self-Attention机制在多模态对齐任务中是否存在瓶颈,以及在实际业务场景中,是否出现过注意力权重完全偏移的情况。3. 讲解LoRA的技术原理,说明LoRA是否仅能嵌入Linear层;分析LoRA无法在LayerNorm层之后插入的原因,以及该操作会对模型训练稳定性产生哪些具体影响。4. 结合实操经验,说明QLoRA降低训练资源成本的核心逻辑;列举常见的模型量化方式,并解释QLoRA选择NF4与FP16组合而非其他方案的原因,阐述NF4的分布拟合逻辑。5. 针对采用multi-query attention优化后,decoder延迟仍居高不下的问题,分析潜在性能瓶颈;探讨vLLM自带的KV Cache是否会成为推理过程中的负担。6. 分别说明Embedding模型与Rerank模型处理文本语料的核心流程,并结合实际应用场景举例说明。7. 结合过往RAG项目经验,讲解从数据清洗到检索服务上线的完整链路搭建流程,重点说明chunk切分的具体策略。8. 分析当前RAG技术落地的最大瓶颈,并阐述你在项目中采取过哪些优化手段来提升检索召回率(Recall)。9. 针对XX领域大模型的训练工作,说明SFT(监督微调)数据集的构造方法与核心思路。10. 结合LoRA微调实操经历,说明rank值的选择依据;在合并adapter权重的过程中,是否遇到过梯度爆炸问题,以及对应的解决方法。11. 结合你的模型部署相关经验,说明模型参数量与硬件算力需求之间的对应关系(例如不同参数量级模型所需的算力配置标准);以部署一个稀疏率千分之三的235B参数量MOE架构模型为例,估算其所需的算力规模。12. 在搭建RAG知识库时,若需对文档进行动态更新,你采用的是全量嵌入还是增量处理方案?若为增量处理,如何规避新旧文档数据分布不一致导致的检索偏差问题。13. 针对机械臂动作态融合相关工作,说明数据融合的具体实现方案,以及对比实验的设计思路与评估指标。
查看12道真题和解析
点赞 评论 收藏
分享
给我面没招了。。。1. 项目拷打2. 详细阐述Transformer的底层原理,并说明其能够替代RNN的核心优势;结合Transformer架构的成熟度,分析Self-Attention机制在多模态对齐任务中是否存在瓶颈,以及在实际业务场景中,是否出现过注意力权重完全偏移的情况。3. 讲解LoRA的技术原理,说明LoRA是否仅能嵌入Linear层;分析LoRA无法在LayerNorm层之后插入的原因,以及该操作会对模型训练稳定性产生哪些具体影响。4. 结合实操经验,说明QLoRA降低训练资源成本的核心逻辑;列举常见的模型量化方式,并解释QLoRA选择NF4与FP16组合而非其他方案的原因,阐述NF4的分布拟合逻辑。5. 针对采用multi-query attention优化后,decoder延迟仍居高不下的问题,分析潜在性能瓶颈;探讨vLLM自带的KV Cache是否会成为推理过程中的负担。6. 分别说明Embedding模型与Rerank模型处理文本语料的核心流程,并结合实际应用场景举例说明。7. 结合过往RAG项目经验,讲解从数据清洗到检索服务上线的完整链路搭建流程,重点说明chunk切分的具体策略。8. 分析当前RAG技术落地的最大瓶颈,并阐述你在项目中采取过哪些优化手段来提升检索召回率(Recall)。9. 针对XX领域大模型的训练工作,说明SFT(监督微调)数据集的构造方法与核心思路。10. 结合LoRA微调实操经历,说明rank值的选择依据;在合并adapter权重的过程中,是否遇到过梯度爆炸问题,以及对应的解决方法。11. 结合你的模型部署相关经验,说明模型参数量与硬件算力需求之间的对应关系(例如不同参数量级模型所需的算力配置标准);以部署一个稀疏率千分之三的235B参数量MOE架构模型为例,估算其所需的算力规模。12. 在搭建RAG知识库时,若需对文档进行动态更新,你采用的是全量嵌入还是增量处理方案?若为增量处理,如何规避新旧文档数据分布不一致导致的检索偏差问题。
点赞 评论 收藏
分享
评论
4
23
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务