腾讯NLP二面部分面经

面后隔了几天,只能按回忆大概写点,腾讯的八股和手撕都挺反套路的,考验理解

部分问题:

模型训练时,如果batch内的文本的长度大小不一,tokenize时以都最大长度padding会增加计算成本,如何解决?(不太确定,回答的先对文本按长度做排序,分好batch和max_seq_length,再混合不同max_seq_length的batch进行训练)

经过padding之后的文本输入,生推理时如何从原始文本最后一个位置开始预测?/ 如何获取最后一个位置的隐层?(没答上来,left-padding和right-padding的区别?使用input里的attention_mask?)

词表很大时,如何优化隐层到输出的Softmax层的计算量?(没答上来,word2vec里提出的hierachical softmax、负采样 ?)

手撕:(先出了1,不会做换了道简单些的2)

1. 使用torch的基本方法实现一个简单的RNN,输入X, Y两段文本(token_ids),得到最后一个隐层作为表征,并计算余弦距离

2. 逐行读取一个文本文件,统计词典并按词频降序输出前k个词,排序部分写归并排序。进一步问如果文件大小超出内存该怎么读?
全部评论
大佬二面过了吗
点赞 回复 分享
发布于 2024-04-06 00:52 广东

相关推荐

在打卡的大老虎很想潜...:你在找实习,没啥实习经历,技术栈放前面,项目多就分两页写,太紧凑了,项目你最多写两个,讲清楚就行,项目背景。用到的技术栈、亮点、难点如何解决,人工智能进面太难了,需求少。你可以加最新大模型的东西
点赞 评论 收藏
分享
肥肠椒绿:双非本可不就犯天条了,双非本就应该打入无间地狱
点赞 评论 收藏
分享
评论
4
12
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务