Deep Bayes: Adaptive skip-gram

Introduction

这里记录的是skip-gram模型的改进。转载请注明。
Ref:Deep Bayes slides

Skip-gram model

图片说明
图片说明
图片说明
Distributional hypothesis: similar words appear in similar contexts.
Gradient update:
图片说明

Summary

learns high-quality semantically rich embeddings
Sparse gradients
Very efficient parallel training

Problem

For some words only one meaning is captured.
For other meanings get uncontrollably mixed up.

Solution: latent-variable model

Latent-variable skip-gram
图片说明
图片说明

Training via variational EM

observed variables: 图片说明
Hidden variables: 图片说明
Parameters: 图片说明
图片说明
图片说明
图片说明
图片说明
图片说明

Chinese Restaurant Process

图片说明

图片说明

Summary

这篇记录了如何通过非参数先验去解决skip-gram一词一意切表达能力不足的问题,通过使用sticking process建模Dirichlet Process以及使用stochastic variational inference来解决这些问题,而且效率还行。

算法小屋 文章被收录于专栏

不定期分享各类算法以及面经。同时也正在学习相关分布式技术。欢迎一起交流。

全部评论

相关推荐

程序员小白条:这比例牛逼,750:1
点赞 评论 收藏
分享
06-25 09:33
厦门大学 Java
程序员饺子:现在日常估计没啥hc了,等到八月多估计就慢慢有了。双九✌🏻不用焦虑的
投递快手等公司7个岗位
点赞 评论 收藏
分享
不愿透露姓名的神秘牛友
07-10 11:45
你不要过来啊啊啊啊啊啊啊
码农索隆:对面:“今天你不面也得面”
点赞 评论 收藏
分享
评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务