都 2026 年了,还在神话 AI Agent开发吗?

从2024年开始,Agent 开发这个概念就慢慢的火爆了起来,2025更是被称为 Agent 开发元年,经常会在牛客上刷到很多在后端找工作碰壁的同学发帖,要不要学一些 AI 相关的东西,怎么转大模型应用开发。其实这样的观念本身就带有一定的偏差。

我之前在红薯做过一段时间的 agent,也是某7k+ star 的 Agent 开发框架 committer,所以我认为我在这上面还是有一点点自己的心得的。

误区一:把 Agent 开发和后端拆开来看

据我观察,很多同学所谓的转 AI 应用开发,就是用 Spring AI 或者 langchain 去实现了一个 demo(当然现在可能更高级一点GraphRAG,整个可拖拽的工作流之类的)然后没有任何后端的内容,然后放到了简历上,这个行为其实和在简历上写了一个自实现 RPC 框架和自实现网关没有任何区别。

AI Agent 是模型工程化应用层最重要的环节,也比我们平常想想的要复杂的多,我们大部分接触的都是业务开发这个场景,比如电商中的智能客服,或者内部的提效工具。

这种其实说的不好听一点就是调用 API,本身和其他的业务场景没有一点点区别,所以对于这样的业务开发岗位,不存在从后端转到大模型应用开发,而是说本身就是后端+新场景。本身最重要的就是 数据+prompt+稳定性,那就不存在任何转方向的说法。

所以,如果想做这个业务的同学,只要好好看看mcp,planning这样的新概念,然后快点去找一份相关的实习,因为这个最重要的不是你怎么做这个 Agent,而是怎么让这个 Agent 更稳定,可观测,prompt调优等等。也更看重你的服务端开发的相关经验

误区二:Agent 开发是不是工资会更高呢,或者更有技术含量,毕竟大家现在都在卷AI?

这个就是一个更大的误区了,刚才上面说的这些,一般就是各个业务部门自己在搞,本身不涉及什么技术。所以本质上和后端同学的薪资基本没有区别。

比较有技术含量的呢?就是各个大厂的基础架构和中台部门,提供 AI 开发的基础设施,比如阿里百炼,字节火山方舟,快手万擎,这样的模型算法开发平台,Agent开发平台,智能体沙箱,Agent runtime 这些以前鸡架部门做的工作。为业务方提供集成的 Agent 能力,这个会更有技术含量,可能也会有一定的溢价,以及更高的就是做SFT/RL/AI infra 的岗位了,这样的才是 Agent 的薪资天花板

所以再回看 AI 落地的相关的岗位的话,其实还是业务和鸡架二选一,或者有的大佬去做infra和强化学习之类的。比起盲目的去追求这个火热的方向,我觉得更重要的是踏踏实实的去学一下这些技术,如果想做 Agent 的话,Agent相关的技术也是日新月异,学一下怎么将 AI 和业务结合,稳定的落地,或者底层的相关技术,我觉得是更重要的。

ps:最近好多牛友问我做开源对找工作到底有没有帮助
1. 没实习之前一定有,有实习之后并不如实习(除非你是做鸡架的同学)
2. 如果为了找工作参加开源,ospp,glcc 是最好的选择
3. 用 AI 写 pr 一定要自己本地先看一遍,测一遍再提交

#AI新知#
全部评论
有的甚至都不叫agent,还在workflow阶段
4 回复 分享
发布于 01-16 02:22 浙江
说得很好,之前看别人简历上写一个什么ai项目,其实就是调用了几个api,没有任何业务场景的应用
4 回复 分享
发布于 01-03 10:44 江苏
来了来了[喝可乐说滴太好了
2 回复 分享
发布于 01-04 13:02 北京
MCP有资料吗
1 回复 分享
发布于 01-04 16:03 北京
所以要怎么写一个有业务场景的Agent
1 回复 分享
发布于 01-03 19:32 广东
问个问题,我并非是后端开发的,而是游戏开发的,如果想迎合ai潮流的话,主要从去思考如何应用agent、mcp这些工具落地到自己的业务上吗?
点赞 回复 分享
发布于 02-27 13:37 广东
想问下佬,双非大二,如果暑假想找第一份agent应用开发实习的话,要补后端知识吗?我看这方面实习岗位要求好像只写prompt工程,rag,langchain那些
点赞 回复 分享
发布于 02-09 23:24 广东
有agent开发偏算法,看自己定位
点赞 回复 分享
发布于 01-19 01:10 北京
来了来了 大佬
点赞 回复 分享
发布于 01-03 19:38 上海

相关推荐

继续来分享下最近的面经~欢迎友好讨论,信息共享1. Transformer 为什么能替代 RNN 成为大模型主流架构?2. Self-Attention 的计算过程是什么,时间复杂度为什么高?3. Multi-Head Attention 的作用是什么,为什么要分多个头?4. 位置编码为什么必要,绝对位置编码和相对位置编码有什么区别?5. 什么是 KV Cache,它为什么能显著提升推理效率?6. Prefix Cache 和 KV Cache 有什么区别,分别适合什么场景?7. 为什么大模型推理通常是 memory bound,而不是 compute bound?8. Batch 推理和单请求推理的吞吐与延迟 tradeoff 是什么?9. Continuous Batching 解决了什么问题,为什么对推理服务很重要?10. Prefill 和 Decode 两个阶段的性能瓶颈分别在哪里?11. 大模型采样里的 temperature、top-k、top-p 分别会怎样影响输出?12. 贪心解码、束搜索、随机采样分别适合什么生成任务?13. 重复惩罚和长度惩罚分别是为了解决什么问题?14. 为什么模型有时会出现“复读机”现象,通常怎么缓解?15. 量化是什么,INT8、INT4、FP16 的核心区别是什么?16. 推理量化会对模型效果造成什么影响,如何评估是否值得量化?17. 张量并行、流水线并行、数据并行分别适合哪个阶段?18. 单机多卡部署大模型时,通信开销主要来自哪里?19. 为什么 GPU 显存是大模型部署的核心约束之一?20. 模型参数量、上下文长度、并发数三者之间是什么关系?21. 什么是 MoE 模型,为什么它能在参数规模很大时控制推理成本?
查看21道真题和解析
点赞 评论 收藏
分享
评论
70
131
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务