cvte nlp面经,希望最后可以上岸

先是问了槽信息的定义,简单说了一下,之后面试官进一步问如何用规则来获取槽信息。

接着问了道算法题,有一个城市名称列表,如何判断语句中是否出现了列表中的城市,一开始说了一种最简单的算法,但是时间复杂度很高,在面试官提示下提出用kmp算法来降低复杂度,面试官接着问有没有更好的方法,我已经想不出来了,面试官就给我介绍前缀树的做法。

接着问做文本表征特征的方法有什么,刚开始不是很清楚意思,询问下得知是想问类似word2vec的,我就说了词袋模型,面试官就问词袋模型有哪些不足的地方,我说了稀疏,无序,纬度爆炸,不能表达语义上的差别,面试官问还有吗,我思考了一下想不出来了,他就和我讲解每个词都是正交的,相当于每个词都没有关系。

接着问word2vec的两种优化方法,说下分层softmax是怎么做的。word2vec的优点和缺点,是如何解决oov的问题的,实际上word2vec如何使用,然后就问bert是怎么做的,和transformers的关系,他有什么好处,也问了如何解决oov的问题,bert的分词,简单说了bert的tokenizer输出的结果,他就问了bert这种分词叫什么,不会…然后他就和我讲解了。

接着问lstm,lstm和rnn有什么区别,解决了什么问题,lstm计算上是如何计算的,lstm输出的维度是怎么样的。

接着问常用的集成方法有哪些,问了其中一种如何实现。

接着看到我简历写了docker,就问了一下,我只是有一个比赛需要用docker做镜像来,就只是简单介绍了一下,平时也没有怎么用过。

面了大概一个小时,最后就到了我有什么问题环节,也耐心的和我讲,面试过程中还担心我没听清意思,经常和我解释,感觉面试官挺好的。

最后希望可以上岸啦!也希望耐心看的各位早日上岸💪

#广州视源电子科技股份有限公司##面经##校招##算法工程师#
全部评论
技术面通过了,还有最终面,希望能上岸💪
3
送花
回复
分享
发布于 2020-01-20 17:09
你好,我查了下,cvte好像是主做与液晶显示相关的,这个企业招NLP大概主要做什么呢?
点赞
送花
回复
分享
发布于 2020-01-26 19:47
滴滴
校招火热招聘中
官网直投
接着问word2vec的两种优化方法,说下分层softmax是怎么做的。word2vec的优点和缺点,是如何解决oov的问题的,实际上word2vec如何使用,然后就问bert是怎么做的,和transformers的关系,他有什么好处,也问了如何解决oov的问题,bert的分词,简单说了bert的tokenizer输出的结果,他就问了bert这种分词叫什么,不会…然后他就和我讲解了。 请问楼主这里的两个oov是怎么解决的呀?😅😅😅
点赞
送花
回复
分享
发布于 2020-02-05 09:53
哭了,没想到cvte的技术面比我想的简单一些,当时觉得工资很高没敢投简历😭
点赞
送花
回复
分享
发布于 2020-02-28 19:16
请问cvte现在还招人吗
点赞
送花
回复
分享
发布于 2020-02-28 20:10
楼主你好,字典树是如何加速了查找的呢。按我的理解KMP的用法是遍历城市列表,将每个城市对语句进行字符串匹配。字典树是要先对城市列表建一棵树,然后再提取出语句里面的城市关键字,去树里面搜索么?
点赞
送花
回复
分享
发布于 2020-03-10 22:05

相关推荐

前两个流程都被结束了,然后被腾讯视频捞了,之前的面经马上到达字数限制了,所以新开一文记录。一面时间:4月17日 16:00 ~ 17:00上来先是做了一下自我介绍然后开始问实习的项目,让详细的讲,期间就夹杂着八股。使用的什么loss函数,除了交叉熵损失函数还了解哪些损失函数。项目过程中有没有遇到过过拟合的问题,什么原因造成的,什么办法解决。为什么L1和L2正则化能够缓解过拟合的问题。项目过程中模型设计方面遇到过什么问题,怎么解决的。什么时候会用softmax,和sigmoid的区别。了解什么召回算法。双塔降维的流程是什么?现在tf比较熟悉了吗。(因为提到上一段实习中最开始不习惯使用tf而是习惯使用pytorch)因为上段实习中讲到了特征降维,面试官问了一个场景题,比如当前情况下我没有任何用户的过往历史数据来进行学习,但我需要进行特征降维,我应该怎么做?后来面试官讲到他们目前遇到这个问题,然后想看我有什么想法,最后讲他们使用的VAE,问我有没有了解过VAE。结束之后做了一个算法题:1120. 子树的最大平均值然后就是反问时间。希望能过吧,三战腾讯了----------4月26日更新二面时间:4月25日 15:00 ~ 16:10主要就是问简历上的项目,然后从项目开始扣八股。介绍一下transformer,位置编码为什么要用三角函数。了解过哪些推荐算法,说了DIN就让简单介绍一下。思考一下如果是短视频推荐当中的序列,应该怎么编码。了解SGD,adam等优化器吗?adam和adagrad各自的优缺点以及适用场景。如果要从头开始做一个预测用户视频观看时长的模型,应该有哪些步骤?如果同时要优化用户的点击率和用户的观看时长,应该怎么做?多任务模型了解过哪些?权重共享是共享哪些部分?实习中用到了降维,因此问了一下了解过其他降维方法如pca没有?没有做算法题,如果过下一面是总监面,不知道结果如何,祈愿----------5月9日更新三面时间:5月8日 14:00 ~ 14:50三面是总监面,自我介绍完了之后针对之前做过的项目深挖了一下细节,然后问如果后续针对项目的算法进行优化会从哪些方面进行考虑,感觉主要看你的思维和解决问题能力。三面结束后第二天约了hr面,在10号
点赞 评论 收藏
转发
4.26更新:4.23HR面后进入录用评估,昨天已收到offer邮件!祝大家也早日收到满意的offer!#晒一晒我的offer#—— —— —— —— —— —— —— —— —— ——10分钟后更新:发面经真的会有好运!10分钟后状态就更新为HR面了—— —— —— —— —— —— —— —— —— ——#如何判断面试是否凉了#4.10初试,4.16复试后面试官让等HR电话,目前官网还是复试链接状态,慌得一批。。。听说发面经有好运,许愿早日进HR面!初试:(约50分钟)1. 面试官介绍部门2. 自我介绍3. 聊简历4. 八股    Q:如何规范LLM的回答?    A:1.SFT微调;2.上下⽂学习(prompt中给例⼦);3.涉及到专业领域时,使⽤RAG    Q:RAG实现?    A:1.分割文档 2.使⽤向量模型将文档转为向量(对⽐学习,双塔模型)3.将向量灌⼊向量数据库;4.将⽤⼾query转为向量,并在向量数据库中检索;5.设置距离阈值,将前n个最相关的结果给到大模型    Q:Transformer中的⾃注意⼒?    A:将每个token embedding与Wq,Wk,Wv相乘得到Q,K,V。对于每个token,计算其Q与所有token的K之间的点乘,通过softmax转为系数,与对应token的V相乘得到与该token的注意⼒。    Q:Transformer中的Q与K点乘后,为什么要除以根号下dk?    A:点乘当dk较⼤时,会导致结果较⼤,经过softmax后可能会导致梯度消失。除以根号下dk相当于正则化,防⽌梯度消失    Q:SVM基本原理?    A:最⼤化超平⾯和⽀持向量之间的margin    Q:SVM是⼆分类模型,如何处理多分类问题?    A:训练多个⼆分类SVM模型对应于每个类别,判断样本是否属于该类,最后根据每个模型结果的置信度得到结果    Q:SVM是线性模型,如何处理⾼维问题?    A:使⽤核函数对数据进⾏升维5. 算法题:DFS模版题,较简单6. 提问环节    Q:有什么可以提⾼的地⽅?    A:多了解模型微调复试:聊简历,一道算法题,20分钟结束算法题:给定字符串,输出其中不包含重复元素的最长子串的长度
点赞 评论 收藏
转发
7 23 评论
分享
牛客网
牛客企业服务