字节大模型Agent算法二面-秋招面经

1.介绍下self-attention,计算其时间复杂度。
2.为什么要用multi-head attention?
3.PPO的clip机制?在线强化学习和离线强化学习有什么区别?RLHF是哪一种?
4.为什么要用reference model? 为了解决什么问题?
5.如何让多个agent协同工作的?举个具体的协同机制例子。
6.如果一个agent误判导致策略冲突,如何处理?
7.有没有用到类似AutoGen或LangChain的框架?为什么选这个框架?
8.你是怎么设计agent的记忆系统?
9.长期记忆如何存储?如果历史记录量非常大,怎么优化查询效率?
10.有没有做记忆衰退,避免旧数据干扰新任务?
11.你们这种模块堆叠的架构是怎么设计视觉问答模块和动作模块的协同逻辑的?
12.human feedback是怎么被agent消化吸收的?有没有用rl进行策略更新?
13.有没有做过模型压缩?比如在车载端或低端设备上的推理加速?
14.如果量化后理解能力下降怎么办?怎么做精度补偿?
15.你怎么处理响应速度与推理精度之间的tradeoff?是先召回再精排,还是单次生成?
16.如果要做电商agent,你会选择哪些模态的信息作为输入?比如文本评论、图像、视频、购买记录?
全部评论

相关推荐

1.你的 Agent 系统Prompt 是怎么设计和迭代的?有没有做过 Prompt 自动优化?当用户提出不完整的请求时,如何补全用户意图的?2.构建 Agent 的时候,遇到过哪些瓶颈?LangChain 的 memory 默认机制在多3.用户并发中怎么做隔离?你是如何保证线程安全的?4.微调 Llama2 你是怎么选择训练样本的?清洗逻辑是什么?你有没有观察到哪些训练样本质量问题对模型行为有很大影响?举例说明。5.DPO相比 SFT,有哪些优劣?它在 Agent 任务上效果提升明显吗?你怎么构造偏好对?构造逻辑是自动的还是人工?6.你说你服务部署在 vLLM 上,为何选择它?KV-cache 如何帮助推理加速?你自己做过哪些优化?7.假如需要支持 Streaming 输出,但当前服务延迟又超标,你会怎么折中设计?8.多轮对话上下文状态管理是如何做的?如何在高并发场景下保证一致性?9.你做的 Agent 使用了多少个外部工具,在调用链条上如何保障故障容错和超时机制?10.有没有做过工具调用失败后的feedback策略设计?11.训练过程中数据来自用户行为日志,你是如何从这些数据中抽取训练对话的?有没有做过归一化或事件抽象?12.有没有了解过带有时间窗口/偏移限制的对话系统?模型怎么“理解时间”?13.你觉得 Agent 哪些模块最容易在真实业务中出问题?你会如何监控和定位的?
查看13道真题和解析
点赞 评论 收藏
分享
评论
点赞
4
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务