Deep Matching:召回策略回顾

Introduction

这篇记录的是推荐系统的召回策略。转载请注明。
reference:WWW18 tutorial

Methods of Representation learning

DSSM

图片说明
图片说明
问题:序列的顺序信息丢失,词袋模型不能保证顺序信息

CDSSM,LSTM-DSSM

CNN和RNN都可以维持一些顺序信息。CNN可以维持短期信息,RNN可以维持长期信息。

CNTN

图片说明
图片说明

Extension to Representation learning methods

问题:之前的表示学习做文本匹配起来都太过粗糙
解决办法:add-fine-grained signals, include MultGranCNN, U-RAE, MV-LSTM等类似
MV-LSTM
图片说明
U-RAE
图片说明
Comparision
图片说明

Methods of Matching function learning

图片说明

ARC-II

图片说明
Problem:
Word level exact matching signals are lost. 2-D matching matrix is constructed based on the embedding of the words in two N-grams.

Matching Pyramid

Inspired by image recognition
Basic matching signals: word-level matching matrix
Matching function:2D-convolution + MLP
图片说明
Positions information of words is kept

Matching-SRNN

Recursive matching structure
图片说明

K-NRM

kernel pooling as matching function
图片说明

Conv-KNRM

图片说明

Decomposable Attention Model for Matching

图片说明
图片说明

Some modern recommendation system architectures

Matrix Factorization as a Neural Network

图片说明

Deep Matrix Factorization

图片说明

AutoRec

图片说明

Deep Collaborative Filtering via Marginalized DAE

图片说明

Neural Collaborate filtering

图片说明

NeuMF

图片说明

NNCF

图片说明

TransRec

图片说明

Latent Relation Metric Learning

图片说明

Wide & Deep

太过熟悉,不提了

Deep Crossing

图片说明

NFM

太过熟悉,不提了

AFM

太过熟悉,不提了

TreeBased Model

图片说明
图片说明

GB-CENT

图片说明

Deep Embedding Forest

图片说明

Tree-enhanced Embedding Model

图片说明

Short Summary

图片说明
图片说明
个人觉得其实那么多算法无非就干了两件事情,学习representation和学习matching function。路漫漫其修远兮,还是要多看代码多实现。

算法小屋 文章被收录于专栏

不定期分享各类算法以及面经。同时也正在学习相关分布式技术。欢迎一起交流。

全部评论

相关推荐

点赞 收藏 评论
分享
牛客网
牛客企业服务