平安金服面经

base西安
1.自我介绍
2.介绍一下树形结构 平衡树
3.红黑树保证红节点还是黑节点的平衡性
4.B树和B+树还有什么区别
5.基本排序算法:希尔、快排、堆排、归并思想
6.数据库三大范式
7.事务的四大特性
8.事物的隔离级别
9.七层网络模型
10.TCP三次握手、四次挥手
11.进程的通信方式
12.JVM的内存模型
13.内存泄露一般发生在哪个区
14.了解那些Java的设计模式
15.Spring框架有哪些模块
16.数据库优化你是怎么做的?
17.执行计划你看过吗?
18.使用hashmap模拟一个redis的过期时间,如何实现
19.详细介绍一个项目
20.为什么想用concurrentHashmap?
21.团队协作
22.生活中最大的挑战
23.未来三年的职业规划
问了意向地 我说西安 不考虑其他地方
结果面试官说西安的研发中心还没建起来 要先去深圳呆几年 我估计我是凉了
全部评论
我记得8月投的时候,有西安我才投的,上周面试告诉我只有深圳
1
送花
回复
分享
发布于 2023-10-18 11:26 陕西
这。。没建起来真的太搞了
点赞
送花
回复
分享
发布于 2023-10-18 00:54 广东
网易互娱
校招火热招聘中
官网直投
额额额,我10月7号面完发个笔试做完就无消息了,楼主,有二面的消息吗。
点赞
送花
回复
分享
发布于 2023-10-24 17:12 江苏

相关推荐

#校招#写在最前面,这段话是我作为一个秋招人&一个初入职场人的一些感悟,可能有很多错误的地方,也有很多值得被喷被吐槽的地方,但出发点是好的希望各位轻喷。最近也在各种评论区里尝试解答大家的一些问题,也希望各位能够一切顺利,祝各位offer多多!作为学生身份经历了校招,也在组里一起参与暑期实习招聘。信息差真的是个很神奇的东西,在组里了解到了很多之前在学生阶段无处可问的东西。简历这个东西9本硕+顶会也会倒在简历筛选(我自己推的一个亲学弟就是这样),然后同样经历但本科和论文都不如前者的人却被筛选进了。大家对简历都是有自己的要求的,可能是大家常说的院校也可能是match的程度,所以如果不知道该准备什么的话可以试着做点match的项目。再说说算法人目前可选的道路。1. nlp/多模态/大模型:大模型的火爆程度真是让人震惊,我也看过不少算法简历几乎人人都是一个大模型或多模态相关的实践/项目,当然我也不是专门研究这个的只是自己浅显的了解过一些nlp多模态和diffusion这些东西,卷的程度应该不亚于当年的cv吧(以我的观点哈,不喜勿喷),hc就那么多大家就是强强对抗。2. 搜广推:我在去年也有幸拿到了一个大厂搜推的offer,确实不是很了解这个方向,凭借着自己对nlp的初步理解以及一个相关项目才能获得offer吧,确实是强产出的岗位,知之甚少就不说了,自身实力存在短板争取在未来能有更多的了解。3. CV:CV可真是当初的神啊,一度让人觉得没有A会都不敢考虑,我之前也算是走进了CV的门槛,但也确实是怕给太多大佬当垫脚石所以秋招确实是一个CV都没敢投,但也还是在期待它再创辉煌的那一天,什么时候能看到Kaiming He的下一篇大作。我也祝各位CV人一路走来不辞辛苦,未来一切顺利。4. ML:传统机器学习已经很少出现在大家的眼前了吧,我目前从事的就是传统机器学习这条路,天天和树模型打交道,boosting也确实是最常用到的,今天还斗胆在评论区和一位浙大爷探讨了一下,也只是希望我为数不多的经历能给后来人多一点帮助。5. 音视频、3D等等等等其他的:这些我确实是知之甚少所以就不误导大家了。最后我是一名普普通通的校招算法工程师,如果各位有任何需要可以随时滴滴,我也会尽可能帮助大家,最后我谨代表我们部门欢迎大家选择阿里淘天选择我们部门。
点赞 评论 收藏
转发
4.26更新:4.23HR面后进入录用评估,昨天已收到offer邮件!祝大家也早日收到满意的offer!#晒一晒我的offer#—— —— —— —— —— —— —— —— —— ——10分钟后更新:发面经真的会有好运!10分钟后状态就更新为HR面了—— —— —— —— —— —— —— —— —— ——#如何判断面试是否凉了#4.10初试,4.16复试后面试官让等HR电话,目前官网还是复试链接状态,慌得一批。。。听说发面经有好运,许愿早日进HR面!初试:(约50分钟)1. 面试官介绍部门2. 自我介绍3. 聊简历4. 八股    Q:如何规范LLM的回答?    A:1.SFT微调;2.上下⽂学习(prompt中给例⼦);3.涉及到专业领域时,使⽤RAG    Q:RAG实现?    A:1.分割文档 2.使⽤向量模型将文档转为向量(对⽐学习,双塔模型)3.将向量灌⼊向量数据库;4.将⽤⼾query转为向量,并在向量数据库中检索;5.设置距离阈值,将前n个最相关的结果给到大模型    Q:Transformer中的⾃注意⼒?    A:将每个token embedding与Wq,Wk,Wv相乘得到Q,K,V。对于每个token,计算其Q与所有token的K之间的点乘,通过softmax转为系数,与对应token的V相乘得到与该token的注意⼒。    Q:Transformer中的Q与K点乘后,为什么要除以根号下dk?    A:点乘当dk较⼤时,会导致结果较⼤,经过softmax后可能会导致梯度消失。除以根号下dk相当于正则化,防⽌梯度消失    Q:SVM基本原理?    A:最⼤化超平⾯和⽀持向量之间的margin    Q:SVM是⼆分类模型,如何处理多分类问题?    A:训练多个⼆分类SVM模型对应于每个类别,判断样本是否属于该类,最后根据每个模型结果的置信度得到结果    Q:SVM是线性模型,如何处理⾼维问题?    A:使⽤核函数对数据进⾏升维5. 算法题:DFS模版题,较简单6. 提问环节    Q:有什么可以提⾼的地⽅?    A:多了解模型微调复试:聊简历,一道算法题,20分钟结束算法题:给定字符串,输出其中不包含重复元素的最长子串的长度
点赞 评论 收藏
转发
1 34 评论
分享
牛客网
牛客企业服务