Minimax AI应用开发一面分享
整体面试还是不错的,但是没后续了,不知道是哪里出了问题
1. 项目拷打
2. 你们从 PRD 到 design.md 这一层,是怎么保证“需求不丢失”的?AI 自检具体是怎么做的,有没有误判的情况?
3. 你刚才提到“需求-代码映射”,能不能举一个具体例子,说明你们是如何做到精确定位到某个文件甚至某一段逻辑的?
4. 你们的 tasks.md 拆分粒度是怎么控制的?拆太细和拆太粗分别会带来什么问题?
5. 在 Multi-Agent 协作中,状态是怎么传递的?是靠文件、内存还是某种中心化状态管理?
6. 你们有没有遇到 Agent 之间“决策冲突”的情况?比如设计和代码生成不一致,是怎么解决的?
7. 你们为什么选择“技术方案驱动”,而不是直接让 AI 从 PRD 出码?
8. 你们 `.catpaw/rules` 这套知识库,和像 OpenClaw 这种基于 RAG 的 memory,有什么区别?
9. 如果知识库内容过多,AI 也会有上下文压力,你们是怎么做裁剪或者命中的?
10. 你们有没有做 embedding 检索?
11. 如果知识库里的内容是错的或者过期了,会不会对 AI 产生误导?你们怎么治理这个问题?
12. 在一个非常大的存量项目里(比如几十万行代码),你们是怎么让 AI 快速理解项目结构的?
13. 你们现在 AI 出码留用率是 50%+,那剩下 50% 主要问题出在哪里?
14. 在复杂业务场景下,AI 出码质量下降,你觉得是什么问题?
15. AI 有没有出现过“看起来对,但其实逻辑是错的”这种情况?
16. 你们有没有做过代码 diff 级别的控制,比如限制 AI 修改范围?
17. 你们基于 Playwright 做自动化测试,那测试用例是怎么保证覆盖率的?有没有评估指标?
18. AI 自动修复 bug 的成功率大概是多少?有没有出现过“修复引入新 bug”的情况?
19. UI 偏差这种问题你们怎么检测?
20. 如果测试通过了,但业务逻辑是错的,这一层你们怎么解决?
21. 你刚才说整体效率提升 20%,这个数据是怎么统计的
22. AI 代码量提升很多,那你怎么评估“有效代码”和“冗余代码”的比例?
1. 项目拷打
2. 你们从 PRD 到 design.md 这一层,是怎么保证“需求不丢失”的?AI 自检具体是怎么做的,有没有误判的情况?
3. 你刚才提到“需求-代码映射”,能不能举一个具体例子,说明你们是如何做到精确定位到某个文件甚至某一段逻辑的?
4. 你们的 tasks.md 拆分粒度是怎么控制的?拆太细和拆太粗分别会带来什么问题?
5. 在 Multi-Agent 协作中,状态是怎么传递的?是靠文件、内存还是某种中心化状态管理?
6. 你们有没有遇到 Agent 之间“决策冲突”的情况?比如设计和代码生成不一致,是怎么解决的?
7. 你们为什么选择“技术方案驱动”,而不是直接让 AI 从 PRD 出码?
8. 你们 `.catpaw/rules` 这套知识库,和像 OpenClaw 这种基于 RAG 的 memory,有什么区别?
9. 如果知识库内容过多,AI 也会有上下文压力,你们是怎么做裁剪或者命中的?
10. 你们有没有做 embedding 检索?
11. 如果知识库里的内容是错的或者过期了,会不会对 AI 产生误导?你们怎么治理这个问题?
12. 在一个非常大的存量项目里(比如几十万行代码),你们是怎么让 AI 快速理解项目结构的?
13. 你们现在 AI 出码留用率是 50%+,那剩下 50% 主要问题出在哪里?
14. 在复杂业务场景下,AI 出码质量下降,你觉得是什么问题?
15. AI 有没有出现过“看起来对,但其实逻辑是错的”这种情况?
16. 你们有没有做过代码 diff 级别的控制,比如限制 AI 修改范围?
17. 你们基于 Playwright 做自动化测试,那测试用例是怎么保证覆盖率的?有没有评估指标?
18. AI 自动修复 bug 的成功率大概是多少?有没有出现过“修复引入新 bug”的情况?
19. UI 偏差这种问题你们怎么检测?
20. 如果测试通过了,但业务逻辑是错的,这一层你们怎么解决?
21. 你刚才说整体效率提升 20%,这个数据是怎么统计的
22. AI 代码量提升很多,那你怎么评估“有效代码”和“冗余代码”的比例?
全部评论
相关推荐
