#平安人寿NLP实习面经

记录一下小白第一次的面试,跟各位大佬是无法比较的,紧张了半天,忘了录音啦
1.来个简短的自我介绍(吧啦吧啦)
2.讲一下你的项目经历(主要问了简历中的阅读理解的项目,貌似对这个挺感兴趣的)
有问项目中细节,千万要弄清(段落筛选怎么做的,attention怎么做的)
编码层是怎么实现的.....
3.Bert的两种输出
4.self-attention和attention的区别(给自己挖了坑,提到了seq2seq,然后揪着我问seq2seq怎么实现attention的)
感觉自己巴拉巴拉说了半天,面试官觉得我没说到点子上面,然后让我回去再看看attention的各种机制,怎么实现的
5.embedding是怎么训练的
我从one-hot开始讲,讲到了w2v,,面试官打乱了我,说不用将0ne-hot,说w2v,让讲了具体是怎么训练的过程,拿磁带来举例
6.不知道怎么回事又回到了Bert上面,问Bert的细节
7.给了一道代码让敲
over!!!
时间不是很长,第一次面试就完美落幕的,我还洗了头发,可惜是电话面试😂我那无处安放的美貌呀,哈哈哈哈


#平安人寿##校招##面经##机器学习#
全部评论
代码题是怎样的?
点赞 回复 分享
发布于 2020-05-20 08:10
寿险很nice,挺重视AI这块的,不过团队技术领域分得比较细,工程的research的有独立的也有交叉的,联系到HR后可以打听一下不同部门,然后表达一下自己的意向。
点赞 回复 分享
发布于 2020-04-13 01:28
请问大概什么时候投的简历,有参加笔试吗?
点赞 回复 分享
发布于 2020-04-12 15:11
电话面试怎么手撕,敲代码阿?
点赞 回复 分享
发布于 2020-04-09 21:28
在哪投简历?
点赞 回复 分享
发布于 2020-04-09 12:39

相关推荐

点赞 评论 收藏
分享
结合最近辅助修改的简历及项目,老师总结了部分大模型微调简历的踩雷点。🙅‍♂️错误示范:在 x任务中,获取 xxx 条数据,通过规则 or 脚本清洗出 x 条数据,然后微调 y 大模型,在业务上提升 x 个点。✍🏻原因:大模型微调的平台是现成的,基模是现成的,体现不出核心能力。✅应该怎么写?首先介绍业务背景:业务是一个销售对话业务,机器人是销售,代替真人,直接面对用户。我们会给模型设定任务,任务是 prompt 。步骤1️⃣.提取训练数据问题:1.真人通话每通电话任务是未知的,我们训练数据是任务+通话的 pair 对。2.真人通话很乱,与客户的对话是各种交叉的,导致 asr 后并不是一人一轮。解决方案:1.首先通过大模型 prompt 对该通电话提取任务,得到任务+ pair 对。需要用到 cot + reflection +多 Ilm 一致性+ debating 的模式。2.使用大模型根据以上任务和真人对话,让大模型编写出通话内容。提问,为什么要编写而不是直接用?步骤2️⃣.制定训练数据集问题:1、正常的对话内容,前面几句和后面几句基本上一致的。都是问候和拜拜,但是也有一些差异。2、因为都是相似场景,虽然任务不同,但是很多场景语义很相似。解决方案:1、基于轮次的权重采样:通过轮次设定权重进行 weighting sample 。解决问候和拜拜的高占比问题。2、基于语义的采样:使用 bert 对对话内容进行 embedding ,然后使用层次聚类通过调节阈值聚类出相似语义的类。对一个类里的样本进行随机采样,提问,为什么要对重复语义的数据进行下采样?3、基于客户类型和产品的采样,因为很多产品是热品,导致对话内容有偏,用户类型一样,需按照类型调整整体比例采样。提问,为什么要这么采样?步骤3️⃣.制定训练数据集我们直接把输出当作 target 进行训练。使用的 lora 训练,但是 lora alpha 设定成为4倍的时候达到了比较好的效果,经验值不同任务不一样,提问,在各种情况下要怎么调?步骤4️⃣.dpo训练问题:v1版本训练时,很多输出内容是对的,但是输出的语气不太像真人,机器人味还是很严重。解决方案:由于训练本身是有 ground truth 的,因此使用v1训练的模型,预测训练集,使用大模型对比两者语气不符合训练集的拿出来,使用训练集的 ground truth 和模型的预测数据作为 dpo 训练对,对v1版本模型重新训练。📳这里老师只是简要进行概括解答,具体情况和详细解答可以咨询辅导,如果想了解项目辅导,提升面试能力,欢迎后台联系。    
点赞 评论 收藏
分享
评论
1
13
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务