ai agent实习面经分享-字节

攒攒人品!有面试过同岗的朋友欢迎评论区交流
1. 实习拷打
2. 项目拷打
3. RLHF中奖励模型(RM)的训练数据如何构建?
4. 推理加速技术
5. 模型剪枝/量化(GPTQ、AWQ)、服务化框架(FastAPI+vLLM)
6. 如何优化大模型在长文本生成中的显存占用?
7. 微调方法对比
8. 设计一个ai爬取字节视频,如何设计?
9. Transformer自注意力机制、位置编码、梯度消失/爆炸的解决方案
10. 如何解决大模型API服务的响应延迟问题?
全部评论

相关推荐

04-08 15:10
门头沟学院 Java
攒攒人品!有面试过同岗的朋友欢迎评论区交流1.实习拷打2.这个方案有没有考虑过在单 Agent 里面继续丰富它的 tool?3.单 Agent 和多 Agent 这两条路线,你们当时是怎么考虑的?为什么最后选择了多 Agent?4.如果模型自己思考并自主选择调用什么工具、执行什么操作,这种方式有什么问题?5.Agent 可以自主决定要不要调用工具;如果不需要就结束整个 ReAct 循环。那按这个逻辑,理论上是不是不需要额外做 Agent 编排/流程设计?6.刚刚提到的那个基于业务知识库的RAG系统,你们是怎么搭建的?7.召回是基于向量相似度做的吗?还是基于 embedding 模型,或者别的方式?8.我听到这里的 TopK,是不是一个向量检索相关的概念?因为你刚刚提到了向量数据库,是吗?9.在这个项目里,你觉得自己做得比较好,或者最有挑战的一件事是什么?10.刚刚提到这个场景涉及多 Agent 的综合调用,是吗?11.如果是在同一个业务领域里,为什么不考虑做成单 Agent,让模型自主思考后再去调用?12.既然 Tool 背后本质上就是 RPC 接口,那不能统一封装后交给同一个 Agent 内部去调度吗?13.你们这个检索/召回方案里,评价指标具体怎么看?14.你们拆成多 Agent 之后,链路失败或局部失败时怎么处理?15.多 Agent 场景下,上下文传递为什么要用 json / slot 这类结构化方式?16.如果 Tool 本身都能统一封装,为什么还要按业务拆 Agent?17.你在线上项目里是怎么权衡响应时间和效果的?手撕:单词拆分
查看17道真题和解析
点赞 评论 收藏
分享
03-21 04:30
门头沟学院 Java
发点面经攒攒人品~1.实习介绍2.拷打第一个项目3.拷打第二个项目4.在向量化之前,为什么要对长文档进行切片?如果不切片会有什么后果?5.切片时设置重叠区域的作用是什么?这个比例你通常怎么来确定?6.讲一下稠密向量与稀疏向量的区别,分别适合处理什么样的搜索需求?7.向量库检索出的Top-K结果,如果K值设置得过大,对后续的生成质量有哪些负面影响?8.余弦相似度和欧氏距离在衡量文本相似性时,各自的优缺点是什么?9.为什么在初筛召回之后,还要加一个Rerank模型?它能解决向量搜索的哪些局限?10.如果文档发生了局部更新,如何通过增量索引来避免全量重新向量化?11.在RAG的生成阶段,如何在Prompt中设定边界条件来防止模型在没搜到内容时产生幻觉?12.了解HyDE吗?介绍一下原理,它在处理模糊提问时有哪些优势?13.随着超长上下文模型的出现,你认为传统RAG架构的必要性是否降低了?14.你了解哪些大模型推理框架?SGLang相比vLLM的PagedAttention在推理延迟上有哪些优势?15.调用大模型API时,为什么要使用asyncio异步编程?它在处理高并发请求时有何优势?16.针对大规模PDF解析这种任务,你选择多线程还是多进程?17.如何确保Agent返回的结果是标准的JSON格式?如果模型输出中有多余的说明文字,你在后端如何提取?18.场景题:对于RAG,如果检索到了针对同一故障的两份手册,内容相互冲突,请你设计一套逻辑,让模型能够识别冲突并优先选择时效性更高的信息?19.手撕:第k大元素
查看19道真题和解析
点赞 评论 收藏
分享
评论
点赞
4
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务