字节大模型Agent算法面经

被横向挂了,希望发出来对大家有帮助!
1. 请介绍 Transformer 的结构组成及各部分作用
2. 如何降低 Transformer 的计算复杂度?常见的稀疏注意力变体有哪些?
3. LoRA 微调的原理是什么?秩 r 的选择会对模型表现产生什么影响?
4. KV Cache 是什么?为什么能极大地提升推理速度?
5. RAG 完整流程,构建向量检索库时如何处理时间衰减对召回的影响?
6. 微调时的训练数据是怎么构建的?如何保证样本多样性和质量?
7. 在 RAG+知识图谱的 Agent 系统中,知识图谱更新的机制是怎样的?如何保证实时性?
8. 训练 LoRA 模型时,你是如何选择冻结层的?依据是什么?
9. 在高并发查询 Agent 系统中,你会如何优化召回和生成阶段的延迟?
10. 大规模 Agent 系统在多线程/多进程场景下的资源调度策略如何设计?
全部评论
有手撕么
点赞 回复 分享
发布于 03-20 17:58 上海
耐挂王
点赞 回复 分享
发布于 03-19 13:48 江苏

相关推荐

评论
4
27
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务