3
テンソルフローが新しく、チュートリアルに従って "seq2seq"モデルを実装しようとしています。 func "embedding_attention_seq2seq"の1つの引数 "num_heads"(デフォルト= 1)についてはわかりません。それは何を表していますか?私は関連する論文でそれを見つけられませんでした。テンソルフローのseq2seq.embedding_attention_seq2seqの "attention heads"
これは、デコーダの1ユニットについて計算したアテンションベクトルの数ですか? 注意の数を変更するにはどうすればよいですか?エンコーダの状態を2回実行するようなのでしょうか? –
はい、次のコード、特に[この行]で確認できます(https://github.com/tensorflow/tensorflow/blob/r1.1/tensorflow/contrib/legacy_seq2seq/python/ops/seq2seq.py# L683)。 – lerner
はい。しかし、私はこの問題を抱えています.2つの注意があれば何が起こりますか? –