openclaw的商业逻辑?大哥我是开发岗不是产品岗

#AI面会问哪些问题?#
家人们谁懂啊!面了快 10 家 AI 公司,我现在对 AI 面已经有 PTSD 了。本来以为 AI 岗面试,顶多问问技术、聊聊项目,结果面下来,各种离谱问题、奇葩操作,给我整得人都麻了,今天必须来吐槽一波!
第一个要吐槽的,就是无底线的项目连环拷打,真的能给你问到祖坟里去。我简历里写了用 LangChain 做了个企业知识库,结果面试官从 “用的什么向量数据库” 开始问,一路追问到 “向量数据库的底层索引结构是什么?”“你用的分块策略,chunk size 为什么设 512?设 256 和 1024 分别会有什么影响?你做过对照测试吗?”“检索的时候用的什么召回策略?top k 设的多少?为什么?”我当时人都傻了,我一个实习生做项目,能跑通、能解决问题就不错了,谁没事给每个参数做几十组对照测试啊?问到最后,面试官还来了一句 “你这项目就是跟着教程拼了个 demo,根本没自己的思考”,我当场就想怼回去,合着你们招实习生,是要招个大模型架构师是吧?
第二个要吐槽的,就是背的全不考,考的全没背,主打一个措手不及。我面试前熬了好几个通宵,把 Transformer 的计算过程、RAG 的优化手段、Agent 的框架全背熟了,结果面试官上来就问:“你觉得现在 AI Agent 落地最大的问题是什么?给你 10 分钟,设计一个能落地的企业级 Agent 方案,讲一下你的思路。”我当时脑子一片空白,背的概念一个都用不上,只能硬着头皮瞎扯,讲完面试官直接皱眉头,场面尴尬到能用脚抠出三室一厅。还有更离谱的,面一家小公司,面试官全程不问技术,就盯着问 “你觉得 OpenClaw 为什么能火?它的商业逻辑是什么?”“你觉得大模型未来 3 年的发展趋势是什么?”“如果让你创业做 AI 产品,你会做什么方向?”我面的是开发岗啊大哥!不是产品岗、不是战略岗!问这些东西,是想让我来当 CEO 吗?
第三个要吐槽的,就是拿应届生当资深专家面,要求离谱到极致。我面某大厂的 AI 实习岗,JD 上写着 “本科及以上,有 Python 基础,了解大模型应用开发即可”,结果面试的时候,直接问我大模型分布式训练的显存优化方案,还有 INT4 量化的底层原理,甚至问我 Transformer 的 CUDA 加速优化怎么做。我当时直接懵了,我说我面的是实习岗,这些底层研发的内容,我确实没深入接触过,结果面试官来了一句 “现在应届生做 AI,这些不都是基础吗?”我真的服了,合着你们 JD 上的要求,都是写着玩的是吧?基础岗的薪资,要求专家级的能力,咋不上天呢?
还有各种离谱的小问题,比如 “用一句话给我奶奶讲明白什么是大模型”“如果大模型出现了幻觉,给用户造成了损失,你觉得该谁负责?”,面到最后我已经麻木了,心里只有一个想法:赶紧结束吧,这班谁爱上谁上。
吐槽归吐槽,面了这么多场也总结出来了,现在的 AI 面,早就不是背几个概念就能过关的了。面试官越来越看重你有没有真的动手做过,有没有自己的思考,而不是只会当一个 “调参侠”“demo 工程师”。
全部评论
恐怖
点赞 回复 分享
发布于 03-25 12:36 北京

相关推荐

整体面试还是不错的,但是没后续了,不知道是哪里出了问题1. 项目拷打2. 你们从 PRD 到 design.md 这一层,是怎么保证“需求不丢失”的?AI 自检具体是怎么做的,有没有误判的情况?3. 你刚才提到“需求-代码映射”,能不能举一个具体例子,说明你们是如何做到精确定位到某个文件甚至某一段逻辑的?4. 你们的 tasks.md 拆分粒度是怎么控制的?拆太细和拆太粗分别会带来什么问题?5. 在 Multi-Agent 协作中,状态是怎么传递的?是靠文件、内存还是某种中心化状态管理?6. 你们有没有遇到 Agent 之间“决策冲突”的情况?比如设计和代码生成不一致,是怎么解决的?7. 你们为什么选择“技术方案驱动”,而不是直接让 AI 从 PRD 出码?8. 你们 `.catpaw/rules` 这套知识库,和像 OpenClaw 这种基于 RAG 的 memory,有什么区别?9. 如果知识库内容过多,AI 也会有上下文压力,你们是怎么做裁剪或者命中的?10. 你们有没有做 embedding 检索?11. 如果知识库里的内容是错的或者过期了,会不会对 AI 产生误导?你们怎么治理这个问题?12. 在一个非常大的存量项目里(比如几十万行代码),你们是怎么让 AI 快速理解项目结构的?13. 你们现在 AI 出码留用率是 50%+,那剩下 50% 主要问题出在哪里?14. 在复杂业务场景下,AI 出码质量下降,你觉得是什么问题?15. AI 有没有出现过“看起来对,但其实逻辑是错的”这种情况?16. 你们有没有做过代码 diff 级别的控制,比如限制 AI 修改范围?17. 你们基于 Playwright 做自动化测试,那测试用例是怎么保证覆盖率的?有没有评估指标?18. AI 自动修复 bug 的成功率大概是多少?有没有出现过“修复引入新 bug”的情况?19. UI 偏差这种问题你们怎么检测?20. 如果测试通过了,但业务逻辑是错的,这一层你们怎么解决?21. 你刚才说整体效率提升 20%,这个数据是怎么统计的22. AI 代码量提升很多,那你怎么评估“有效代码”和“冗余代码”的比例?
查看21道真题和解析
点赞 评论 收藏
分享
评论
1
3
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务