Seq2Seq
RNN
Recurrent Neural Network
nlp 中需要前一个单元的细胞记忆
参数共享
Bidirectional RNNs 双向
Deep RNNs 翻译
LSTM
输入门 input gate
遗忘门 forget gate
输出门 output
concat 操作在哪里?
请多多指教。
文章标题:Seq2Seq
本文作者:顺强
发布时间:2020-02-18, 23:59:00
原始链接:http://shunqiang.ml/nlp-seq2seq/版权声明: "署名-非商用-相同方式共享 4.0" 转载请保留原文链接及作者。