TensorflowでRNNを実装してテキスト予測をしようとしています。私は私が正しく理解していれば、出力活性化h_t
とLSTMの活性化c_t
は、我々は新しいシーケンス(つまりを入力するたびにリセットされ、それらが更新されている100RSTNのc_tとh_tをRNNのシーケンスの2つ置きにリセット
の系列長で、この目的のためにBasicLSTMCellを使用していますシーケンスに沿って100回ですが、一度バッチ内の次のシーケンスに移動すると、それらは0にリセットされます)。
Tensorflowを使用してこれを防ぐ方法はありますか?つまり、更新されたc_t
とh_t
をバッチ内のすべてのシーケンスに沿って使用し続けますか? (そして、次のバッチに移動するときにそれらをリセットする)。
[this]の可能な複製(http://stackoverflow.com/questions/38241410/tensorflow-remember-lstm-state-for-next-batch-stateful-lstm) – Kh40tiK