如何把BERT用到文本生成中

在知乎上提了问题没有人理,来牛客看看有没有大佬可以帮助我。最近在尝试把BERT模型放入seq2seq中,但是效果不好,不怎么收敛。我是直接把GRU encoder换成了BERT,然后decoder依旧是GRU,优化方式是ADAM,但是loss下降不下去,不管怎么调整学习率都没什么用。想问问大家这是为啥,是BERT跟RNN不兼容吗 。感觉换一个强大的预训练过的encoder不应该更好吗?我的数据量并不大,就8万左右。如果不能这样使用BERT,那有啥办法可以把BERT用到seq2seq任务中吗。谢谢各位大佬!!!

#机器学习##深度学习##人工智能#
全部评论
有一种思路,利用bert的next sentence,把后句mask成自回归,用前句生成后句
1 回复 分享
发布于 2019-11-06 11:52
BERT模型直接拿来当作编码部分?
点赞 回复 分享
发布于 2019-10-21 22:08
Bert 是通过DAE方式来预训练的,其学习到的是词的上下文表征信息,而学习不到这种词与词之间的组合信息。 这些都需要看你 Decoder 的部分,可以看看GPT 和 MASS 是怎么做的。  最新的 XLNet 可以解决你这个烦恼,问题是,***又要学,,学不动了啊。
点赞 回复 分享
发布于 2019-06-22 22:11
我也在做差不多的东西 BERT提取的特征是矩阵形式, 768 * 自己设的句子长度(包括CLS和SEP), 如果用transformer解码就用整个矩阵做decoder的输入(K和V),如果用GRU解码就用CLS对应的向量做GRU的hidden state 有好的想法可以交流一下
点赞 回复 分享
发布于 2019-06-09 23:27
不是说bert做文本生成是雷区么。。
点赞 回复 分享
发布于 2019-06-09 20:43
bert不适合文本生成
点赞 回复 分享
发布于 2019-06-09 16:11
编码器用gru,你的误差没办法传播到编码层的多头注意力层里,要不然就是你的嵌入层有问题
点赞 回复 分享
发布于 2019-06-09 14:11
用bert做的多标签文本分类
点赞 回复 分享
发布于 2019-06-09 13:32
用bert做word embedding
点赞 回复 分享
发布于 2019-06-09 13:31
我刚刚入门nlp,等大佬来解答
点赞 回复 分享
发布于 2019-06-09 13:25

相关推荐

1.请简述什么是大模型,以及它与传统模型的主要区别是什么?2.你如何评估大模型的性能?有哪些常用的评估指标?3.请描述一下你如何对大模型进行优化,以提高其性能和效率。4.你是否有过使用或开发大模型的经验?请分享一个具体的案例。5.大模型中的注意力机制是如何工作的?它在大模型中起到了什么作用?6.大模型中的优化算法有哪些常见的选择?它们各有什么优缺点?7.如何处理大模型训练过程中的梯度消失或梯度爆炸问题?8.在大模型设计中,如何权衡模型的复杂度和性能?9.面对大模型训练和推理所需的庞大计算资源,你有什么解决建议?10.请简述你了解的大模型的主要结构特点。11.reward bench上的reward model分哪几类?12. reward model如何训练的,训练目标是什么?13.dp0训练的损失函数和训练目标,dpo如何改进怎么理解大模型安全,包含哪些方面的内容?14.指令跟随能力的评估集有什么,如何评估的?15.阿尔法狗强化学习策略是什么?提升推理能力和指令跟随能力哪个更难, 为什么, 提升指令跟随能力的优化方式和其他的比如推理有什么不一样的地方?16.dpo训完了一般输出长度会变化吗? 如何解决这个问题大模型训练过程学习率一般是怎么变化的, 退火阶段学习率如何变化的?17.在开发大模型时,当你面临推理阶段的资源需求时,你如何确保模型的可解释性和公平性?18.谈谈你对Transformer模型的理解,以及它在自然语言处理中的应用。19.请简述Transformer的基本结构和工作原理?20.为什么Transformer使用位置编码(Positional Encoding)?21.如何优化 Transformer 模型的性能?22.Transformer在自然语言处理中有哪些应用?23.transformer里边norm的位置在哪里,norm如何计算的多头自注意力机制的作用是什么?24.注意力机制为什么除以根号dk, 为什么不是dk请解释什么是注意力机制,并举例说明其应用场景。25.注意力机制是如何工作的?请简述其计算过程。26.多头注意力机制是什么?它相比单头注意力有什么优势?📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
查看26道真题和解析
点赞 评论 收藏
分享
评论
点赞
10
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务