吐槽小米NLP面试

小米是我面到现在体验最差的了。


刚才小米面试官问我word2vec负采样,我说损失函数是正样本sigmoid算的概率对数+1-每个负样本sigmoid算的概率对数(就是说不是用的softmax),面试官一直说我错了,然后说是用的softmax。


可是我在网上又看了一圈发现负采样都是写的每个样本单独用sigmoid算啊,是他弄错了吗?大佬来帮忙看看?


然后后面问我transformer的输入,我说词向量啊,他说真不是,你下去再去看看吧。我下去才想起来他可能是想让我说还有位置编码,但是说一句“只有词向量吗”就这么难吗?


也许是前面负采样让他觉得我是个大彩笔吧,后面面试的过程中,一说了什么东西他没理解或者没合他的意,他脸上就满是嘲讽的笑意,也不解释交流,就是一句“行,下一个问题”。


如果负采样的问题他是对的也就算了,要是他弄错了,我真想好好骂骂他。


#小米##吐槽#
全部评论
我也记得负采样的时候相当于训练一个二分类器,极大化正样本概率,极小化负样本概率,损失函数就是你说的这个
点赞
送花
回复
分享
发布于 2019-09-20 16:19
我的印象中,用采样后的做softmax,和你说的那个用sigmoid那个算正负样本都可以的。而且你说的这个效果会更好(论文中说的)。 https://arxiv.org/abs/1402.3722
点赞
送花
回复
分享
发布于 2019-09-20 16:26
秋招专场
校招火热招聘中
官网直投
不是softmax是啥。。。。
点赞
送花
回复
分享
发布于 2019-09-20 16:09
他不会是想让你说层次化 softmax 吧
点赞
送花
回复
分享
发布于 2019-09-20 16:13
楼主是今天面试完的吗?投的哪里的岗位
点赞
送花
回复
分享
发布于 2019-09-20 16:13
谢谢楼下二位,我已经准备在实验室喷爆小米了
点赞
送花
回复
分享
发布于 2019-09-20 16:30
你说的对吧 没有用softmax
点赞
送花
回复
分享
发布于 2019-09-20 18:48
他要是给你过了还好 因此挂你的话就太坑了
点赞
送花
回复
分享
发布于 2019-09-20 18:48

相关推荐

鼠鼠是做AI交叉领域的研三菜鸡,主要做cv的,错过了秋招,春招投了几百份简历,做了几十个笔试,面了十几家,到现在也没有offer,有一篇ccfc,其他文章都是交叉的期刊,算法创新点很小,总之是个算法渣渣。今天参加朗新科技面试,被拷打了一个小时(把挂名三作的论文也写到简历里了,结果对细节不了解,被问得一脸懵逼),把经验写一下造福大家吧1.项目背景。2.说一下fasterrcnn。3.说一下unet和unet++,以及它们的区别,unet++的密集连接,跳跃连接和上采样方法,密集连接的优势。4.说一下FPN。5.说一下SE模块,SE和注意力机制的激活函数,relu和sigmoid的区别,relu的优势和特点。6.说一下resnet和resnext的区别。7.说一下miou8.说一下语义分割的损失函数,说一下diceloss的优缺点。9.说一下小目标分割存在的问题,怎么解决?10.说一下BN,具体的实现步骤。11.说一下长尾问题的解决方法,除了focalloss之外还有其他什么方法。12.说一下梯度消失和梯度暴炸,怎么解决?除了残差块之外有什么解决方法?13.说一下对自然图像做分割的算法 (工业应用)13.说一下业界常用的图像检测算法,yolo之类的。14.类别不平衡除了focalloss和设置类别权重之外的解决方法。15.用过opencv哪些函数?findcontours函数的参数怎么用?#0offer是寒冬太冷还是我太菜##你已经投递多少份简历了#
点赞 评论 收藏
转发
2 13 评论
分享
牛客网
牛客企业服务