高德大模型算法秋招一面
1. 手撕
合并区间
2. 八股
1)请介绍 Transformer 的结构组成及各部分作用,在长序列时空数据中,2)如何降低 Transformer 的计算复杂度?常见的稀疏注意力变体有哪些?
3)GNN的消息传递机制是怎样的?在时空图中,如何结合时间信息编码节点特征?你接触过哪些时空 GNN 模型?
4)LoRA微调的原理是什么?秩 r 的选择会对模型表现产生什么影响?
5)RAG的完整流程,在时空出行数据场景里,构建向量检索库时如何处理时间衰减对召回的影响?
6)强化学习在 Agent 优化中的应用,结合出行推荐 Agent,你会如何设计 Reward 函数?
3. 项目
1)微调时的训练数据是怎么构建的?如何保证样本多样性和质量?
2)在 RAG+时空知识图谱的 Agent 系统中,知识图谱更新的机制是怎样的?是怎样保证实时性的?
3)在大规模轨迹数据下是怎么做负采样(Negative Sampling)的?
4)训练 LoRA 模型时,你是如何选择冻结层的?依据是什么?
5)在高并发查询 Agent 系统中,你会如何优化召回和生成阶段的延迟?
4. 开放题
1)大规模 Agent 系统在多线程/多进程场景下的资源调度策略如何设计?
2)如果你要在 GPU 资源有限的条件下同时提供推理和微调服务,如何做资源分配和任务调度以保证时延和吞吐?
合并区间
2. 八股
1)请介绍 Transformer 的结构组成及各部分作用,在长序列时空数据中,2)如何降低 Transformer 的计算复杂度?常见的稀疏注意力变体有哪些?
3)GNN的消息传递机制是怎样的?在时空图中,如何结合时间信息编码节点特征?你接触过哪些时空 GNN 模型?
4)LoRA微调的原理是什么?秩 r 的选择会对模型表现产生什么影响?
5)RAG的完整流程,在时空出行数据场景里,构建向量检索库时如何处理时间衰减对召回的影响?
6)强化学习在 Agent 优化中的应用,结合出行推荐 Agent,你会如何设计 Reward 函数?
3. 项目
1)微调时的训练数据是怎么构建的?如何保证样本多样性和质量?
2)在 RAG+时空知识图谱的 Agent 系统中,知识图谱更新的机制是怎样的?是怎样保证实时性的?
3)在大规模轨迹数据下是怎么做负采样(Negative Sampling)的?
4)训练 LoRA 模型时,你是如何选择冻结层的?依据是什么?
5)在高并发查询 Agent 系统中,你会如何优化召回和生成阶段的延迟?
4. 开放题
1)大规模 Agent 系统在多线程/多进程场景下的资源调度策略如何设计?
2)如果你要在 GPU 资源有限的条件下同时提供推理和微调服务,如何做资源分配和任务调度以保证时延和吞吐?
全部评论
相关推荐
查看10道真题和解析