2016-06-30 1 views

答えて

1

this oneのようなデコーダのソースコードを読んでいたら、それは注意の数を表していることが分かります。

時には、例えばthis paperにこのような注意事項(階層的な注意)があります(下図参照)。
TL; DR;最初のものは単語のためのもので、2つ目は文のためのものです。
このグラフを確認してください: enter image description here

+0

これは、デコーダの1ユニットについて計算したアテンションベクトルの数ですか? 注意の数を変更するにはどうすればよいですか?エンコーダの状態を2回実行するようなのでしょうか? –

+1

はい、次のコード、特に[この行]で確認できます(https://github.com/tensorflow/tensorflow/blob/r1.1/tensorflow/contrib/legacy_seq2seq/python/ops/seq2seq.py# L683)。 – lerner

+0

はい。しかし、私はこの問題を抱えています.2つの注意があれば何が起こりますか? –

関連する問題