百度后端二面面经
1. 你的 Agent 系统Prompt 是怎么设计和迭代的?有没有做过 Prompt 自动优化?当用户提出不完整的请求时,如何补全用户意图的?
2. 构建 Agent 的时候,遇到过哪些瓶颈?LangChain 的 memory 默认机制在多用户并发中怎么做隔离?你是如何保证线程安全的?
3. 微调 Llama2 你是怎么选择训练样本的?清洗逻辑是什么?你有没有观察到哪些训练样本质量问题对模型行为有很大影响?举例说明。
4. DPO相比 SFT,有哪些优劣?它在 Agent 任务上效果提升明显吗?你怎么构造偏好对?构造逻辑是自动的还是人工?
5. 你说你服务部署在 vLLM 上,为何选择它?KV-cache 如何帮助推理加速?你自己做过哪些优化?
6. 假如需要支持 Streaming 输出,但当前服务延迟又超标,你会怎么折中设计?
7. 多轮对话上下文状态管理是如何做的?如何在高并发场景下保证一致性?
8. 你做的 Agent 使用了多少个外部工具,在调用链条上如何保障故障容错和超时机制?
追问:有没有做过工具调用失败后的feedback策略设计?
9. 训练过程中数据来自用户行为日志,你是如何从这些数据中抽取训练对话的?有没有做过归一化或事件抽象?
10. 有没有了解过带有时间窗口/偏移限制的对话系统?模型怎么“理解时间”?
11. 你觉得 Agent 哪些模块最容易在真实业务中出问题?你会如何监控和定位的?
#发面经攒人品#