Seq2Seq

RNN
Recurrent Neural Network
nlp 中需要前一个单元的细胞记忆
参数共享
Bidirectional RNNs 双向
Deep RNNs 翻译

LSTM
输入门 input gate
遗忘门 forget gate
输出门 output
concat 操作在哪里?


请多多指教。

文章标题:Seq2Seq

本文作者:顺强

发布时间:2020-02-18, 23:59:00

原始链接:http://shunqiang.ml/nlp-seq2seq/

版权声明: "署名-非商用-相同方式共享 4.0" 转载请保留原文链接及作者。

目录
×

喜欢就点赞,疼爱就打赏