Vibe Coding时代,你的编程能力还剩下多少?

    “我靠,刚才面阿里某部门,项目聊得很好,手撕没撕出来,挂了。”

    前两天听朋友这样吐槽时,我正处在一种类似的焦虑中:发现自己越来越依赖各种 Coding Agent,开始担心代码能力会退化。
    朋友的情况在面试中很典型,但有点特殊。很多人觉得刷算法题对实际工作帮助不大,但在目前某些厂的考核体系下,这依然是刚需,要面试只能去刷题,没办法。

    我想聊的是更本质的问题:在解决实际问题的场景中,我们该如何平衡 AI 工具与自己的代码能力?
    “代码能力”本身其实有点难定义,不仅是熟悉语言特性或数据结构,更重要的是能把一个实际问题转化成解决它的脚本。现在 Agent 用多了,最直观的感受是:坐在 IDE 面前,不知道该干什么。其实这不是coding能力退化了,是根本没定义清楚自己要解决什么问题,以及用什么方式去解决。

    手搓代码这件事,早些年大家也是靠CV解决问题,并不是每一行都自己敲。但现在的趋势是很多 Agent 会隐藏内部工作细节,只在特定时刻让你检查进度。这种做法能减少信息干扰,但也极大地依赖模型能力。如果模型本身能力不够,它可能会在后台陷入反复调用一个工具的死循环,没有任何结果,token一直在跑,而你甚至不知道。即便模型能力足够,agents也把规划、调试和审查的过程藏了起来,只留下一个“working”的状态,时间一长,导致我们再次面对代码时会产生一点抗拒感。

    关于对代码的掌握度,Anthropic 曾做过一项研究,调研了不同模式下开发者对代码的掌握程度:全部交给Agent:最快,但对代码的掌握度为0;纯手搓组: 对代码掌握程度最高,但速度最慢;人机协作组(生成后解释): 模型不仅输出代码,也输出理由。这一组的得分往往也较高,对代码的掌握也更平衡。
    
    话又说回来,现在有一种观点认为,大模型已经发展到不需要我们去关注代码细节了,人只需要有“产品思维”,从业务和需求角度给 AI 分任务就行。但我个人认为,鉴于大模型是有幻觉的,我们对编程语言的常用库和特性依然要有基本的认知,因为你的追问也许可以发现大模型错误的认知,从而在早期避免错误的设计。否则,在后续的调试阶段,你可能要花费比别人多得多的沟通成本和 Token。

    所以,即便有工具辅助,依然要对代码有一定了解。比如它设计了哪些数据结构,用了什么框架,为什么要这样实现。当 Agent 调试成功后,我们可以多问它几个问题:刚才是哪里错了?你怎么知道的?这个命令具体是什么意思?......这种让大模型进行自我解释的过程,能有效增加你对代码维护的了解程度。

#AI求职实录#
全部评论

相关推荐

04-07 17:32
门头沟学院 Java
1.自我介绍2.讲下自我介绍提到的ppt智能体,完整的流程调研auto ppt等3.讲下rag的流程正向流程,反向评估都答4.ppt智能体改为多智能架构,会结合业务场景考虑吗;当然去往新方向做尝试可以5.为啥用rag,解决什么问题外挂记忆,解决幻觉,垂直领域问答6.在rag里面调用的LLM,有尝试做垂直领域的LLM微调吗7.企业知识库和个人知识库,个人问答会结合两个做回答吗8.用过ai coding多吗,什么模型,国外模型用的多吗;就是对于需求已经够用了9.遇到过什么项目难点项目上线和前端联调,部署工具OOM,初期调研rag过程中部署问题10.如果做了一个多智能体或者工作流的ppt智能体,怎么做评估,有哪些指标结果侧(生成侧),看版面对齐度,丰富性,是否有问题;生成文本内容,是否有问题,用户打分加权(劣良优);最后设定综合制定标准打分11.面试官陈述:就是通过一个智能体生成,另外一个自动化智能体,自动化评估12.实习过程中有几个人13.有用openclaw claude code做过什么;skill 渐进式批露怎么做的;LLM怎么知道要调用哪些skill答得个人工作流,react;       应该是工具 chema注入,然后意图识别;结构化输出 (Function Call)14.反问智能体投入生成环境的评估,人工和自动化评估都有吗;agent scope搭建效果产品或hr及一些相关需求,评审方案;内部agent build智能体编排架构工具挺多;但实际还是有性能安全等考虑,不能成为黑盒;百炼平台内部用的话,还是有很相关的;
查看12道真题和解析
点赞 评论 收藏
分享
评论
2
1
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务