小米秋招agent算法一面

一、手撕
题目:给定一个字符串 s 和一个整数 k,每隔 k 个字符反转一次,返回最终字符串。
简单很快就写出来了

二、八股
1.自注意力机制是什么?计算复杂度怎么算?
吟唱: 通过query-key相似度计算权重,对value加权求和,建模长距离依赖。O(n平方)n为序列长度。

2.KV-Cache的如何加速推理?
继续吟唱:生成时缓存已经计算过的kv,避免重复计算。

3.LoRA的原理是什么?与P-Tuning、Adapter的异同点?LoRA的参数选择对模型性能有何影响?
三连吟唱:原理是冻结原始权重,训练低秩矩阵参数。异同在于lora训练参数,p-tuning只优化了prompt嵌入。

4.介绍下RLHF的基本流程,与DPO的差异是什么?
主动吟唱:RLHF三段式,sft用高质量数据集微调,rm训练对比学习模型用于打分,ppo通过rl泛化增强。dpo直接优化偏好数据,省去rm和ppo。

5.分布式训练中的TP、PP、DP分别是什么?
TP按tensor维度拆分,PP按网络层数分段流水线执行,DP数据并行,复制模型副本分散计算

6.flash-attention的原理是什么?
这里回答没太好,只讲了通过内存层次结构什么的减少I/O瓶颈

7.DeepSeek的MoA架构与MoE有何区别?
moe通过门控机制选择专家子网络,参数规模增加但训练难度大。moa则用多个agent回答,通过数据迭代优化,缓解偏科。

8.如何处理数据不均衡问题?
上采样小样本,课程学习

三、项目与实习
1.agent实习主要负责哪些模块?
动作规划,memory经验,evaluation pipeline,后训练,很多模块都参与了,面试官也挺震惊哈哈。这里聊比较多就不po了。
2.记忆系统如何实现视觉-语言特征对齐?
clip映射到联合embbeding上
3.如果视觉模块误判,如何通过语言纠错?
检测矛盾关键字,通过反馈触发重试。
4.具体讲讲怎么构建evaluation pipeline的?
做了数据爬取,版本控制,llm打分
全部评论

相关推荐

1.你的 Agent 系统Prompt 是怎么设计和迭代的?有没有做过 Prompt 自动优化?当用户提出不完整的请求时,如何补全用户意图的?2.构建 Agent 的时候,遇到过哪些瓶颈?LangChain 的 memory 默认机制在多3.用户并发中怎么做隔离?你是如何保证线程安全的?4.微调 Llama2 你是怎么选择训练样本的?清洗逻辑是什么?你有没有观察到哪些训练样本质量问题对模型行为有很大影响?举例说明。5.DPO相比 SFT,有哪些优劣?它在 Agent 任务上效果提升明显吗?你怎么构造偏好对?构造逻辑是自动的还是人工?6.你说你服务部署在 vLLM 上,为何选择它?KV-cache 如何帮助推理加速?你自己做过哪些优化?7.假如需要支持 Streaming 输出,但当前服务延迟又超标,你会怎么折中设计?8.多轮对话上下文状态管理是如何做的?如何在高并发场景下保证一致性?9.你做的 Agent 使用了多少个外部工具,在调用链条上如何保障故障容错和超时机制?10.有没有做过工具调用失败后的feedback策略设计?11.训练过程中数据来自用户行为日志,你是如何从这些数据中抽取训练对话的?有没有做过归一化或事件抽象?12.有没有了解过带有时间窗口/偏移限制的对话系统?模型怎么“理解时间”?13.你觉得 Agent 哪些模块最容易在真实业务中出问题?你会如何监控和定位的?
点赞 评论 收藏
分享
评论
1
6
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务