大厂提前实习对AI开发的新感悟

为了更好地了解签的秋招的组的氛围,并且想在提前landing学习业务等,本人在签完三方后于12月前来提前实习

算到现在也一个多月了,最大的体会就是破除了之前我对AI coding对开发模式的影响。

1. 开发模式的转变
现在的coding agent已经能替代手工编程的95%以上,用claude或者cursor已经能在工业生产级别上代替掉手敲键盘的过程。
即使是特别复杂的项目,我们也可以用成熟的提示词和给予他合理的上下文来最大程度的帮助自己。就我自己而言,实习一个月我只有在学习中间件写测试demo的时候是自己写的代码,其他时候的业务需求代码都是生成的然后我来check检查调优。
这意味着什么?意味着我们必须持续提高自己竞争力,包括了要持续学习最新的ai能力,vibe coding的能力,项目架构设计的能力。ai是我们手下的员工或者同事,如果我们不能有他没有的隐性能力,那么效率就会很低。这也是为什么后端面试越来越多的问对大模型的理解和使用经验了

2. 最新知识的了解
我所在的组学习氛围是非常浓厚的,大家都在持续学习最新的agent技术,并且思考如何赋能我们所负责的C端业务,这是非常重要的一点。
我们是后端开发,大部分后端是业务团队,这意味着在这个时代下我们必须同时掌握后端的那些东西,还得有agent落地的经验。于是对最新知识的了解便是我们必须具备的能力了。
当然,作为校招生实习生我们还要学习后端的东西,没有那么多时间持续关注。但如果mt或者ld带着我们学我们一定要积极接受。

3. 思考模式的转变
在如上的模式变化下,我们不能认为说做好自己手里的一亩三分地就好了,而是要以包容的心态面向未来。AI时代到来我们可能会焦虑自己的竞争力和不可替代性,那不如持续进步持续提高自己的竞争力。
其实选择了这一行就意味着要持续学习,现在反而是发展初期正值风口,为何不抓住机会冲一波?

以上是本人来大厂提前实习的碎碎念,希望能与大家共勉~

#AI新知#  
全部评论
个人认为AI时代加速发展两年,预计明年会大规模取消掉前后测运的区别,直接统归为一类——AI开发
2 回复 分享
发布于 01-27 19:03 北京
别说了,我现在连新建Java类都先问 :兄弟,你来写还是我来?
1 回复 分享
发布于 02-02 10:38 江苏
点赞 回复 分享
发布于 02-02 10:44 上海
可以的
点赞 回复 分享
发布于 02-02 10:44 北京
AI真的很重要 所以大家还是要快拥抱AI
点赞 回复 分享
发布于 02-02 10:44 新疆
持续学习在什么时候都不会 出错
点赞 回复 分享
发布于 02-02 10:43 湖北
妙啊
点赞 回复 分享
发布于 02-02 10:43 广东
DDDD AI是未来
点赞 回复 分享
发布于 02-02 10:43 上海
所以现在应该怎么提高自己竞争力呢
点赞 回复 分享
发布于 02-02 10:43 广东
谢谢佬的分享
点赞 回复 分享
发布于 02-02 10:42 河南
可以啊 思考的蛮不错的 确实值得深思
点赞 回复 分享
发布于 02-02 10:42 广东
不努力学新技术 就会被淘汰
点赞 回复 分享
发布于 02-02 10:42 辽宁
以后都是AI干了 人能干啥
点赞 回复 分享
发布于 02-02 10:41 江西
以前怕35岁被裁,现在怕35分钟不更新Prompt就被淘汰
点赞 回复 分享
发布于 02-02 10:41 山东
我的核心竞争力就是能看懂AI写的bug,并假装是自己写的
点赞 回复 分享
发布于 02-02 10:40 陕西
每天上班第一件事:检查AI有没有偷偷给我加删库跑路彩蛋
点赞 回复 分享
发布于 02-02 10:40 湖南
校招新潜规则:不会写代码可以,但得会写让AI听话的咒语
点赞 回复 分享
发布于 02-02 10:40 河南
AI写得比我好,还不要工资 建议HR直接给它发offer
点赞 回复 分享
发布于 02-02 10:40 上海
嘶 有道理啊
点赞 回复 分享
发布于 02-02 10:39 江苏
也不知道AI到底会发展成什么样子 有点期待又有点害怕咋回事
点赞 回复 分享
发布于 02-02 10:39 浙江

相关推荐

LLM Agent 系统的核心瓶颈是上下文管理,其核心痛点包括 Token 限制导致的上下文溢出、多轮对话漂移、工具调用引发的上下文爆炸与污染、记忆检索不精准、记忆冲突及长任务无法持续等问题。解决方案以 “记忆分层、上下文压缩、智能检索” 为核心,通过滑动窗口保留近期对话、上下文总结压缩冗余信息、RAG 实现精准记忆召回、分层记忆架构区分短期 / 长期 / 任务记忆,搭配上下文排序与工具输出压缩等技术,构建以 Context Manager 为核心的生产级架构,同时通过 Prompt Budget 规划、定期总结等最佳实践,在有限 Token 内为 LLM 提供最有价值的上下文,支撑 Agent 稳定高效运行。一、核心痛点1.Token上限限制,长对话+工具数据易致上下文溢出2.多轮对话漂移,Agent偏离初始任务目标3.上下文污染/爆炸,工具返回大量冗余原始数据4.记忆检索不精准,易召回无关/遗漏关键信息5.记忆无一致性机制,用户信息易出现冲突6.长周期任务无法持续推进二、核心解决原则记忆分层、上下文压缩、智能检索,用最少Token为LLM提供高价值上下文。三、核心解决方案1.滑动窗口:保留最近N轮对话,基础兜底方案2.上下文压缩:LLM定期总结对话历史,精简Token3.RAG记忆检索:按需向量检索,仅传入相关长期记忆4.分层记忆架构:短期(近期对话)+长期(用户信息)+情景(任务总结)5.上下文排序:按相关性×新鲜度×重要性打分,仅取Top K高价值内容6.工具输出压缩:原始数据经压缩后,仅传入核心要点四、生产级核心架构以Context Manager为核心统筹,形成闭环:输入层(用户查询/工具结果/历史/记忆)→核心管理层(五大解决方案模块)→记忆层(分层架构)→输出层(Prompt Builder按Token预算拼Prompt入LLM)→反馈层(LLM输出反向更新记忆)五、生产落地最佳实践1.提前规划各组件Token预算,避免溢出2.工具输出、记忆使用必须做压缩/检索,杜绝原始/全量数据3.每10-20轮对话定期总结,更新情景记忆4.所有上下文必经排序筛选,保留高价值内容六、未来发展方向Context OS、知识图谱式Graph Memory、自适应上下文、支撑长周期任务的Long-Term Agents七、核心结论LLM Agent的核心瓶颈是上下文管理,而非模型本身;管理本质是平衡信息完整性与Token经济性,生产落地关键是以Context Manager为核心,组合各类技术形成标准化处理流程。
AI求职实录
点赞 评论 收藏
分享
评论
6
11
分享

创作者周榜

更多
正在热议
更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务