word2vec

讲一下word2vec
哈夫曼树与负采样
实现哈夫曼树手撕代码

如何用word2vec的方式构造sentence2vec
CBOW的损失函数

1.解释word2vec(这个我真的是5次有3次都会被问到,我觉得想突出你对它掌握得很好得话得知道层次softmax每次到底是怎么更新参数的,skip gram和cbow的优缺点,负例采样和层次化softmax各自的优缺点,以及word2vec的缺点等等)

cbow和skip gram的区别?你觉得用哪个训练的词向量结果好?为什么?--怪问题...乱说了一下

问了word2vec的cbow、skip gram、负采样的细节(非原理)

3.从度秘的一个场景题引入,问了我如何设计度秘的音乐推荐的embedding。
如果用简单的word2vec怎么做, 存在什么缺点,面试官说音乐可能不像nlp任务有那么强的顺序性,怎么改进?
【后来我查了以下就是微软item2vec的思想】
答案:1.扩大word2vec的时间窗口,2.均匀抽样,怎么做均匀抽样

word2vec:层次softmax和负采样的原理和公式

你能详细的说一下CBOW和skip-garm它们的区别么?分别适用于什么场景?

4. 谈谈word2vec是怎样实现的,怎么用哈夫曼树编码的。

简述word2vec;说说滑动窗口大小以及负采样个数的参数设置以及设置的比例;怎么衡量学到的embedding的好坏

一面时面试官问我word2vec的目标函数是什么,我就说了是对数似然函数,然后他就问了这个形式跟逻辑斯蒂回归形式差不多,逻辑斯蒂回归使用时一般是加正则化项的,word2vec为什么没加?
答:加正则的本质是减少数据中的误差对模型的影响。word2vec中输入数据是one hot encoding没有误差所以不用加。

word2vec如何提高训练速度

3. word2vec的相关内容,包括两种训练方式及效率等

介绍word2vec及负采样,负采样中噪声数据是否更新

word2vec相关,什么情况用CBOW,什么情况用Skip-gram

为何选用word2vec,不用bert

word2vec的缺点

全部评论

相关推荐

移动云能力 苏小妍 总包多3w左右
点赞 评论 收藏
转发
点赞 1 评论
分享
牛客网
牛客企业服务