ai agent开发一面面经分享-百度

给我面没招了,发点面经攒攒人品~
1.项目拷打
2.提示词模板是怎么设计和迭代的?你怎么判断一个模板是真的更好了?
3.你们的 Agent 是单 Agent 还是多 Agent?
为什么这么设计?有没有考虑过另一种方案?
4.Agent 任务是怎么拆分的?
拆分粒度是怎么决定的?
5.上下文是怎么构建的?
你们怎么避免上下文过长或者信息污染?
6.如果上下文窗口不够,你优先保留哪些信息?为什么?
7.你们做代码理解的时候,AST、调用关系这些信息是怎么用起来的?
8.单测生成里,哪些代码其实不适合生成单测?你们是怎么识别并过滤的?
9.覆盖率高但测试质量很差,这种情况你见过吗?你们是怎么解决的?
10.mock 在单测里什么时候是必须的?什么时候反而会带来问题?
11.如果一个函数依赖数据库和RPC,你怎么让模型生成的单测还能稳定运行?
12.你们怎么评估生成单测的质量?除了覆盖率,还有哪些指标?
13.LLM 的输入到底是什么?模型真正看到的是什么?
14.self attention 的核心作用是什么?
为什么要拆成 QKV?为什么 attention 可以建模长距离关系,
15.为什么需要 multi-head为什么 attention 可以看成动态加权
16.同一个 token 的 Q、K、V 为什么不一样?
17.attention 复杂度很高,如果上下文特别长,你会怎么优化?
18.模型产生幻觉的时候,一般是什么原因?
工程上有什么办法降低
全部评论
强烈推荐!这个笔记写得很清晰 http://github.com/AccumulateMore/CV
1 回复 分享
发布于 04-03 10:04 广东
看了半天,你这没手撕啊,太爽了
点赞 回复 分享
发布于 04-15 18:38 陕西
agent开发还问算法!?
点赞 回复 分享
发布于 03-28 20:57 陕西
吓尿了
点赞 回复 分享
发布于 03-25 11:01 广东

相关推荐

04-24 17:20
门头沟学院 Java
发一下问题给大家参考,攒攒人品!1.实习拷打2.拷打第一个项目:如果长表格被切分到了两个不同的Chunk,如何保证大模型在回答时不丢失表头信息?为什么不直接把图片转成描述再做文本检索,而是做视觉Embedding?有什么好处?3.拷打第二个项目:你是如何设定记忆总结的触发条件的?是根据对话轮数总结,还是根据Token消耗量来总结?如果测评量表返回的数据量非常大,超过了模型窗口,在不丢失核心指标的前提下,如何对工具结果进行预压缩?4.为什么在做RAG时,切片不能切得太长,也不能切得太短?5.什么是混合检索?为什么一些场景下,只用向量检索效果不好?6.如何在Prompt中设计拒答逻辑,让模型在知识库没有相关内容时,不强行生成答案?7.什么是CoT?它在提升Agent逻辑推理能力方面的原理是什么?8.在Function Call的过程中,大模型返回给后端的是真实运行的结果,还是调用的意图?9.拷打Transformer10.了解MySQL吗?在MySQL中,如果要存储用户的对话记录,你会选择哪种字段类型?为什么?11.Redis有哪些常见的数据结构?12.为什么在大模型应用中,会把一些重复的问题和答案存入Redis缓存?13.介绍一下如何利用Redis存储大模型的响应结果?14.如果两个用户的提问意思一样但表达不同,如何判断该不该命中Redis里的缓存?15.在分布式Agent环境下,用户的Session应该存放在哪里?16.手撕:无重复字符最长子串
查看16道真题和解析
点赞 评论 收藏
分享
评论
4
27
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务