乐信圣文一面

1,自我介绍,
2,双向链表写一个反转链表算法
3,equls和hashcode重写(问题2链表当中的链表的),以及他们之间的关系
4,hashmap、hashtable、ConcurrentHashMap了解, 例如线程安全如何保证(ConcurrentHashMap在put时如何保证线程安全)、如何存储数据,
5,mysql索引结构是什么
6,mysql最左匹配原则
7,反问环节
7.1 面试流程  两轮技术面, 一轮hr
7.2 面试反馈时间  一周内
全部评论
现编的竟然对了,太难绷了,第三个问题我是真忘了,但前几天面试问集合的存储的流程了
点赞 回复 分享
发布于 昨天 16:50 黑龙江

相关推荐

“我靠,刚才面阿里某部门,项目聊得很好,手撕没撕出来,挂了。”前两天听朋友这样吐槽时,我正处在一种类似的焦虑中:发现自己越来越依赖各种 Coding Agent,开始担心代码能力会退化。朋友的情况在面试中很典型,但有点特殊。很多人觉得刷算法题对实际工作帮助不大,但在目前某些厂的考核体系下,这依然是刚需,要面试只能去刷题,没办法。我想聊的是更本质的问题:在解决实际问题的场景中,我们该如何平衡 AI 工具与自己的代码能力?“代码能力”本身其实有点难定义,不仅是熟悉语言特性或数据结构,更重要的是能把一个实际问题转化成解决它的脚本。现在 Agent 用多了,最直观的感受是:坐在 IDE 面前,不知道该干什么。其实这不是coding能力退化了,是根本没定义清楚自己要解决什么问题,以及用什么方式去解决。手搓代码这件事,早些年大家也是靠CV解决问题,并不是每一行都自己敲。但现在的趋势是很多 Agent 会隐藏内部工作细节,只在特定时刻让你检查进度。这种做法能减少信息干扰,但也极大地依赖模型能力。如果模型本身能力不够,它可能会在后台陷入反复调用一个工具的死循环,没有任何结果,token一直在跑,而你甚至不知道。即便模型能力足够,agents也把规划、调试和审查的过程藏了起来,只留下一个“working”的状态,时间一长,导致我们再次面对代码时会产生一点抗拒感。关于对代码的掌握度,Anthropic 曾做过一项研究,调研了不同模式下开发者对代码的掌握程度:全部交给Agent:最快,但对代码的掌握度为0;纯手搓组: 对代码掌握程度最高,但速度最慢;人机协作组(生成后解释): 模型不仅输出代码,也输出理由。这一组的得分往往也较高,对代码的掌握也更平衡。话又说回来,现在有一种观点认为,大模型已经发展到不需要我们去关注代码细节了,人只需要有“产品思维”,从业务和需求角度给 AI 分任务就行。但我个人认为,鉴于大模型是有幻觉的,我们对编程语言的常用库和特性依然要有基本的认知,因为你的追问也许可以发现大模型错误的认知,从而在早期避免错误的设计。否则,在后续的调试阶段,你可能要花费比别人多得多的沟通成本和 Token。所以,即便有工具辅助,依然要对代码有一定了解。比如它设计了哪些数据结构,用了什么框架,为什么要这样实现。当 Agent 调试成功后,我们可以多问它几个问题:刚才是哪里错了?你怎么知道的?这个命令具体是什么意思?......这种让大模型进行自我解释的过程,能有效增加你对代码维护的了解程度。
AI求职实录
点赞 评论 收藏
分享
评论
点赞
1
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务