LastWh1sper level
获赞
828
粉丝
121
关注
15
看过 TA
1892
江南大学
2026
算法工程师
IP属地:江苏
本硕211 找北京江浙沪大模型算法相关岗位
私信
关注
最近大厂招 Agent 工程师的岗位非常多,没有入门的朋友可能觉得“Agent不就是调调 API 吗?”Agent 不同于传统的“一问一答”式 AI,它是在对话模型的基础上增加了一个自主循环,能够根据任务目标判断“还需要做什么”,并调用外部工具执行。理想中的Agent,人类一动嘴,LLM跑断腿,在我们还喝茶打哈欠的时候就把活全干完了,但在实际落地中,想做出一个稳定可用的产品,还是有很多难点的。首先是工具的适配。在一个可用的 Agent 系统中,AI 推理只占约 30% 的逻辑,剩下的 70% 都是非AI的工程化适配。Agent 必须能够稳定处理现实世界的接口边界问题,包括 OAuth 授权、Token 自动刷新、API 速率限制以及海量数据的分页处理。同时,工具的 Schema 定义直接影响调用准确率。优秀的 Agent 需要对工具的粒度和描述进行反复调优,确保模型在面对数十个可选工具时,指令遵循依然清晰稳定。其次是多步任务的可靠性管理。在长链条推理中,错误会随步骤指数级叠加。哪怕单步准确率达到 80%,连续执行五步后的综合成功率也会降至约 32.8%。这种概率衰减意味着一个微小的幻觉就能让整个任务偏航。好的 Agent 必须具备严密的状态管理,能够在执行异常时实现自动捕获、重试或逻辑回滚。在执行关键操作前,还需要设计逻辑校验环节,防止单个步骤的偏移导致整体任务崩溃。接着是上下文的信息治理。大模型在处理长周期任务时普遍面临指令丢失的问题,尤其是在频繁的工具调用产生大量冗余数据时,核心约束容易被边缘化,导致 Agent 出现“失忆”现象。优秀的工程实践需要实现动态内存管理,精准识别并保留关键指令和历史摘要,同时剔除无意义的中间日志。通过提高上下文的信息密度,不仅能降低幻觉风险,也能在多模型路由中有效控制 Token 成本。最近开源社区非常火的 OpenClaw就是一个典型的例子。它作为一个拥有极高系统权限的 Agent 框架,可以直接操作文件和执行命令,极大地扩展了 AI 的能力边界。但在实际应用中,它的提示词工程仍有提升空间。由于权限极高,如果提示词无法精准约束模型的行为,很容易在复杂的执行链条中产生误操作甚至安全风险,且频繁触发的记忆压缩和超高的token消耗也被人诟病。这也是目前高权限 Agent 在落地时面临的核心痛点之一。总的来说,Agent 开发的本质是构建一个以模型为核心的高可靠软件系统。调通接口只是基础,真正的护城河在于你如何处理那些繁杂的非 AI 细节,包括工具层的异常处理、上下文的动态压缩以及评估体系的建立。正在找相关工作的同学,可以看看你简历上的Agent项目,有没有针对以上的痛点做了有效改进,面试官会很感兴趣的。
AI求职实录
0 点赞 评论 收藏
分享
“我靠,刚才面阿里某部门,项目聊得很好,手撕没撕出来,挂了。”前两天听朋友这样吐槽时,我正处在一种类似的焦虑中:发现自己越来越依赖各种 Coding Agent,开始担心代码能力会退化。朋友的情况在面试中很典型,但有点特殊。很多人觉得刷算法题对实际工作帮助不大,但在目前某些厂的考核体系下,这依然是刚需,要面试只能去刷题,没办法。我想聊的是更本质的问题:在解决实际问题的场景中,我们该如何平衡 AI 工具与自己的代码能力?“代码能力”本身其实有点难定义,不仅是熟悉语言特性或数据结构,更重要的是能把一个实际问题转化成解决它的脚本。现在 Agent 用多了,最直观的感受是:坐在 IDE 面前,不知道该干什么。其实这不是coding能力退化了,是根本没定义清楚自己要解决什么问题,以及用什么方式去解决。手搓代码这件事,早些年大家也是靠CV解决问题,并不是每一行都自己敲。但现在的趋势是很多 Agent 会隐藏内部工作细节,只在特定时刻让你检查进度。这种做法能减少信息干扰,但也极大地依赖模型能力。如果模型本身能力不够,它可能会在后台陷入反复调用一个工具的死循环,没有任何结果,token一直在跑,而你甚至不知道。即便模型能力足够,agents也把规划、调试和审查的过程藏了起来,只留下一个“working”的状态,时间一长,导致我们再次面对代码时会产生一点抗拒感。关于对代码的掌握度,Anthropic 曾做过一项研究,调研了不同模式下开发者对代码的掌握程度:全部交给Agent:最快,但对代码的掌握度为0;纯手搓组: 对代码掌握程度最高,但速度最慢;人机协作组(生成后解释): 模型不仅输出代码,也输出理由。这一组的得分往往也较高,对代码的掌握也更平衡。话又说回来,现在有一种观点认为,大模型已经发展到不需要我们去关注代码细节了,人只需要有“产品思维”,从业务和需求角度给 AI 分任务就行。但我个人认为,鉴于大模型是有幻觉的,我们对编程语言的常用库和特性依然要有基本的认知,因为你的追问也许可以发现大模型错误的认知,从而在早期避免错误的设计。否则,在后续的调试阶段,你可能要花费比别人多得多的沟通成本和 Token。所以,即便有工具辅助,依然要对代码有一定了解。比如它设计了哪些数据结构,用了什么框架,为什么要这样实现。当 Agent 调试成功后,我们可以多问它几个问题:刚才是哪里错了?你怎么知道的?这个命令具体是什么意思?......这种让大模型进行自我解释的过程,能有效增加你对代码维护的了解程度。
AI求职实录
0 点赞 评论 收藏
分享
最近养龙虾火得有点离谱。技术群、朋友聚会、公司内网,到处都是配置截图——接入了这个,打通了那个,甚至有人做起了付费上门安装服务,还有人打着这个旗号搞擦边,甚至zf出台了鼓励政策。一个月前我也跟着装了,然后看着那个界面一头雾水:这有啥好用的?当然后来发现,网上咋咋呼呼的,其实大多数人根本没用起来。截图发出去,点赞收藏,在评论区指指点点,然后没有下文了。真正落到实处的,我没见到几个。为数不多的一个同事,是用Claude Code给自己写了套代码审查工具,现在日常开发直接用它跑。但这种人是少数,大家更多讨论的,是关于这件事的焦虑,而不是这件事本身。(说真的,一直揪着不放的似乎是自媒体们......那些卖API的倒是赚翻了)。这种焦虑在工业界尤其明显。我在一家电商公司的AI中心实习,部门提倡用AI工具,有员工自发配置,有线下交流会。工业界极度追求效率,希望员工时刻follow新技术——但这种氛围有时候会变成一种隐性的压力,不跟就是落后,不养就是不上进。有次leader让我试一个新的数据框架,我折腾了一天,最后发现根本不适配我们的任务= =。不过也难免,一个工具好不好用,试过才知道,但试的成本是真实的。学校里反而没这种压力。同门几乎没人用这些工具,一方面太贵,另一方面,现有的工具其实已经够用了。我们是懂代码的人,看到一个改动,想知道它改了什么、为什么改、改得对不对,在VS Code里看比在终端里直观得多。没有业界那种效率压力,对新工具自然也没那么敏感,导师那边更不在意,任务完成就行。闲的没事折腾完之后,我看着那个API key的界面发呆,不知道我鼓捣半天是要干什么,好像只是因为它火?但我其实并没有什么需要它24小时一直运行的任务。太多人把手段当成目的了。纺织机比织毛衣针高效多了,但如果你是厨师,你用它干啥呢?会发个消息,跟风接入飞书,不算会用工具。更重要的是判断你的任务性质、项目周期,需要考虑到这个工具引入之后的收益和安全风险,真的有这个必要吗?
燚燊焱炎火:和以前练气功一样
AI求职实录
0 点赞 评论 收藏
分享
前些天看了 Clawdbot 创始人的采访——这哥们单日提交 1.3k commits,一个月 6600+ 次提交,有的代码自己一句都没看过,非常恐怖。所以在不久的将来,当 AI 已经完全具备写代码的能力,人类程序员的操作空间还能剩多少?最近在实习,做大模型微调,新鲜期过了,发现不过是机械劳动,造数据 → 训模型 → 看 badcase → 然后再造数据,循环往复...这不就是Agent的ReAct范式么? (坏了,我成智能体了) 需求明确的情况下,Claude-3.5/3.6 也完全可以独立完成造数据 pipeline 的开发,偶尔会留下一些语法错误,在两三轮尝试之内也能自己修正过来......这里非要人来完成的环节并不多,只能用人来完成的理由,好像只剩人比较便宜了...? 但 AI infra、推理加速也在飞速发展,这种相对的便宜,又能持续多久呢?Clawdbot已经火到到处都在讨论,尽管目前在国内的适配有限,(门槛高是一方面,还很重要的一点是比较烧钱...)不过它对人类劳动力的节省是没办法忽视的。目前同事们普遍认为这玩意儿现在只能接入飞书写写文档,但你也知道,“目前”而已。GPT-4 推出的那年或许看上去还有点呆,但短短几年,拥有 skills 和 function call 的大模型已经可以帮你完成打开应用、查看消息、撰写文档这种复合任务——写代码又能比写飞书文档复杂多少呢?不过是接入不同的软件,阅读不同的文本,调用不同的修改命令,底层是一样的,现在 Copilot 已经做得有模有样,更别说 Clawdbot 这种具有自我进化能力的 Agent,只要 token 多,Clawdbot 完全可以给自己装一堆功能,能量超乎你想象。有人说了,我做的项目大着呢,全是屎山代码,我不信 AI 能看完,这说的其实是长上下文问题,我个人不认为是一个无法解决的问题,随着上下文窗口的扩展和长期记忆管理的研究工作不断发展,AI 总能找到方法把你的超长文本压缩成一个一个的小块,然后逐个击破(虽然目前 GPT-5.2 Codex 改我的代码还是会改着改着一片红...)有句话说得好,你怕被 AI 替代,是因为你太像 AI。你的工作流程高度标准化、可预测、可复现——接需求、看文档、查 API、写代码、测试、提交。每一步都有明确的输入输出,每一步都能被拆解成清晰的指令。这种工作方式,恰好是 AI 最擅长的。如果你的价值体现在“把业务逻辑翻译成代码”,那 AI 确实可以做得更快、更稳定、更便宜。它不会写错大小写,不会忘记边界条件,不会因为昨晚没睡好就漏掉一个判断。要想不被替代,就得做那些 AI 做不了的事,比如和产品经理撕逼,解释为什么这个需求做不了;看着三个技术方案,权衡性能、成本、开发周期,最后拍板选一个;跨部门开会,听运营讲了半天业务痛点,翻译成技术语言,还得判断她说的是真需求还是伪需求。这些事情需要判断、需要博弈、需要对人的理解, AI 暂时还做不来。但问题是,这些事情需要多少人来干?以前一个项目可能需要十个程序员,现在有了 AI,也许三个人就够了,剩下那七个人上哪去?......也许他们会转型,在行业找到新位置,也许是去卖炒粉了,说不好。但有一点感觉很明显:AI 在拉高门槛。以前你会写代码就能找到工作,现在得会“用 AI 写代码 + 理解业务 + 做技术决策”。这个组合技能,不是每个人都能凑齐的。工具会进化,但人怎么不被工具定义,可能是我们未来一段时间需要长期思考的问题。
李橙子:有句话说得好,你怕被 AI 替代,是因为你太像 AI。这句话说的很对
AI求职实录
0 点赞 评论 收藏
分享
bg双二,非科班,无论文竞赛,小厂实习一段。秋招开始后,从去年8月开始一直断断续续投到现在,不过最近明显没什么HC,大概大家都忙着过年吧。期间面过大大小小的厂几十个了,现在已经能通过面试官的几个问题,大致了解到公司靠不靠谱。有些面试官上来就问“这个你做过吗?那个你做过吗?你对我们公司这个行业怎么看?”,关于具体的技术细节,几乎不会问,你讲了他也是走神——纯草台班子,进去没人带着你干活,你大概率要独自面对一个只会提需求,不能帮你解决问题的老登。有些面试官会从项目入手,等你介绍完后,问你的的业务痛点(或解决的问题、遇到的困难),问你项目的大致结构,问你每个模块的技术细节,问你“如果不考虑资源限制,你想怎么完善这个项目”——大厂基本都有这个流程,这种公司适合有技术追求、愿意卷的同学去——当然,最主要的问题是,这种公司不是很容易进。有些面试官,也问点项目,也问点技术,也问点人际交往、与领导的相处等问题,什么都问,什么都问的不太多——这种公司比较咸鱼,我指的是业务上,可能没有什么很拿的出手的产品,混混日子应该还可以,但如果想从这个公司跳出去,可能不太被认可。(没有说这种公司一定不加班的意思)目前在实习,但是感觉留下可能比较困难,也签了保底的,但是还是想再冲一把。那就投呗,现在心态已经从有事没事就拿起ssob看有没有人回复,转变成每天抽一点时间一顿打招呼发出去,再集中时间发送简历,主打一个命里有时终须有,命里无时莫强求。虽然朋友们回家的回家,旅行的旅行,而我为了一份更好的工作,还在一边实习一边给老登做事,但也觉得挺充实的,也挺好的,至少以后想起这段时间,不会觉得后悔吧。祝大家新年快乐。
厨子代码仔:找实习的时候面几家就能摸清楚门道了,好的岗位和公司都是从简历开始问,从项目的整体和具体负责的内容到细节,层层递进,会让面试者感觉不慌不忙。会有不问简历,上来就问模型细节,训练系列,让手撕公式;还有一直问他自己项目细节,问你怎么能解决掉某某痛点的。以上两类都是本人面实习过程中,遇到的典型草台班子面试具象化,面试可以自信一些,这是一场双向选择的过程,不要降低自己身份,不会就实话实说,但也可以讲讲自己的思路,不磕巴、语速不要太快,有礼貌,简历上的所有东西要能游刃有余(本人也只是27届在实习的过程中,这只是自己面试的感受,不对轻喷✋
春节前,你还在投简历吗?
0 点赞 评论 收藏
分享

创作者周榜

更多
关注他的用户也关注了:
牛客网
牛客网在线编程
牛客网题解
牛客企业服务