深度学习(五):NLP文本生成任务——对对联,根据上联,对下联

NLP文本生成任务

文本生成的场景:看图说话、写摘要。。。
在这里插入图片描述

Seq2seq&Attention机制

在这里插入图片描述
Attention本质是权重,在翻译句子时候,汇集于前面单词不同的关注度。
在这里插入图片描述

数据处理流程

其中Lookup-Table中:Word2Vector、ElMO、Glove等来训练词向量。 预训练好的Embedding。
在这里插入图片描述

LSTM——循环神经网络

在这里插入图片描述
在这里插入图片描述

注意力机制(Attention)

目的:学到的权重。
在这里插入图片描述
在这里插入图片描述

实战:对对联

在这里插入图片描述

总结

更多推荐