Pytorch中nn.Embedding的原理及使用

参数1:vocab的大小

参数2:d_model

参数3(padding_idx):可选参数,原张量中置为idx的词,都被映射成一个长为d_model的零向量

例1

embedding=torch.nn.Embedding(10,3)
input = torch.LongTensor([[1,2,4,5],[4,3,2,9]])
embedding(input)

例2

embedding=torch.nn.Embedding(10,3)
input = torch.LongTensor([[1,2,4,5],[4,3,2,9]],padding_idx=1)
embedding(input)

 

全部评论

相关推荐

2025-11-22 16:20
已编辑
用友_Java开发实习生(实习员工)
等闲_:感觉有好多地方会被问穿,mysql存储向量这个方案问题应该很大的,如果深问的的话,为什么不用es,不用pg,不用mivus,分块策略是怎么做的,向量化是怎么向量化的,稠密向量还是稀疏向量,再深问余弦相似度,HSWM算法,Bm25算法,为什么不用混合检索或者Rank重排序优化?其他的项目不停机分库分表咋实现的,切库过程中数据有diff的话有没有补偿策略?既然有了分库分表了有没有碰到业务上不好优化的慢sql,让这个sql读从库?而且点评的话,最好自己压测过,要不这个数据也不好解释。现在就27的情况来看,很多同学已经有了中大厂实习,这个节点也会偏向这些有大厂实习的92同学,而且hc也不多,所以坚持海投吧
听劝,我这个简历该怎么改...
点赞 评论 收藏
分享
2025-12-04 15:23
三峡大学 FPGA工程师
不知道怎么取名字_:玩游戏都写到简历上了啊
投递BOSS直聘等公司8个岗位
点赞 评论 收藏
分享
评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务