蚂蚁 网银 NLP算法面经

4.21 投简历

4.23 约后天一面

4.25 一面

无手撕,上来先拷打论文,其中有个地方用了rag,面试官问我这里是怎么把文本转换成向量储存的。(我以为是问我工程上的实现,这是去年做的一个小模块,回忆了半天细节,答得支支吾吾,面完了之后结合下一个问我才意识到其实是问我embedding过程)

看我支支吾吾就直接问transformer是怎么把token处理成向量的。

transformer的self-attention和cross self-attention区别在哪里。

pre-norm和post-norm的区别?进一步,为什么现在主流大模型都用post-norm。

lora的实现过程。

大模型用的Loss函数是什么(交叉熵)?进一步,使用teaching forcing训练时使用真实标签作为输入,而推理时则是使用模型的输出作为输入,这导致了训练阶段和推理阶段之间的不一致性,为什么会用这个gap。(我在想不是都把原因说出来了吗...这个问题也答得不太好)

然后开始介绍业务,大概是做网上银行的客服机器人。

反问:

如果我有幸能进入你们部门,大概会分配给我什么样的工作:不确定,要等来了之后才知道。

从今天的面试来看,你觉得我有什么地方需要改进的吗:去熟悉熟悉自己的论文和项目吧(因为一开始被问到那个确实答得不太好。)

面试官全程给的压力有点大,本来都以为凉了,结果居然五分钟后约二面。

4.27 二面

无手撕,直接拷打两篇论文,期间问了一点点八股。

简述DPO、PPO、GRPO的区别。

问我在读研期间学习后最擅长的技能是什么,我回答数据集构造和强化学习,于是出了一道场景题:如果部门上线的客服机器人,和人工相比不仅语气僵硬而且可能会有不安全回复或者幻觉,如何解决?(感觉答得也不太好,一面之后稍微了解了下客服机器人的内容,但是答得太浅了)

反问:

作为行业中的前辈,你能给一些我为了之后工作可以学习的内容的建议吗:这得看你自己,基础知识要你自己学,针对性的技术要看你之后的业务,不能给一个宽泛的建议。

总共有几面:就两个技术面,这轮面试我就会决定结果。

一小时后公众号显示二面过,目前等约hr面。

--------------------------------------

5.7更新,约了明天下午hr面

总结:蚂蚁效率真的快,投简历到二面过不到一个星期,第一位面试官虽然有点严肃但也没为难我,第二位面试官人也很好。全程除了笔试没有手撕,八股文问的不多也比较简单,有点白准备了。由于暑期实习开始准备的很晚还以为和大厂无缘了,要是能去蚂蚁我以后只用支付宝。

#实习进度记录#
全部评论
兄弟hr面了么
点赞 回复 分享
发布于 05-07 14:46 四川
接好运 我也投了蚂蚁 一直没消息
点赞 回复 分享
发布于 05-05 15:36 黑龙江

相关推荐

昨天 17:04
已编辑
浙江大学 算法工程师
面试问题:- (针对简历提问)你工作里主要关注哪些指标?解释一下AUC含义、计算和作用- 主流的开源大模型结构有哪些?(prefix decoder,casual decoder、encoder-decoder)- 介绍一下layernorm和batchnorm的区别?- 在机器学习里,怎么处理长尾数据和多峰数据?- 怎么解决模型的冷启动问题,你觉得LLM在冷启动方面能够起到什么作用?- 介绍一下常见的优化算法(SGD ->Adagrad ->RMSProp ->Adam -> AdamW)?优缺点- 为什么Adam不一定最优而SGD最优的?怎么理解分析?- (针对简历提问)你工作里的对比损失是怎么构造的,有什么作用?介绍常见的对比损失的公式。代码题:- 数组第K大。给定整数数组 nums 和整数 k,请返回数组中第 k 个最大的元素。(力扣215原题)- 手写对比损失的计算(结合项目),并简单说了一下原理。(大概写出来就好)二面我这个是交叉面,提问的有部分设计大模型,也当然我简历上有大模型,所以问了一些llm+搜推的内容,但这部分交叉问题比较浅,能说个大概就很好,同时也有很多经典的机器学习面经问题。因为项目里提到了对标学习,所以面试官在代码考核部分让我写个示例,所以写进简历的一定要准备好(包括流程步骤,代码实现大概要清楚)。面广告算法的岗位,机器学习面经暴率很高,建议熟背,就算是看过有印象,问到的时候也会基本很稳。#面试问题记录#
点赞 评论 收藏
分享
评论
点赞
6
分享

创作者周榜

更多
牛客网
牛客企业服务