2016-07-14 11 views
0

Seq2Seq TensorFlowチュートリアルでなぜバケツが導入されたのだろうと思います。パディング記号を処理しないことで効率の向上を理解していますが、rnnを使用し、sequence_lengthパラメーターを指定すると、パディングの処理を避けることができます。または、dynamic_rnnを使用している場合Seq2Seq TensorFlowチュートリアルでのバケットの使用

複数のデバイス/マシン間でトレーニングを配布するのに役立つからですか?

答えて

0

理由の1つは、seq2seqが動的なrnnが利用可能になる前に作成されたことです。もう1つは、動的なrnnを使用していても、バッチがバケツで整理されている場合でも速度を向上させることができます。

+0

私は最初の理由に同意します:)しかし、バケツがなぜ助けになるのですか?フレーズサイズに近いバケットサイズであっても、まだパディング処理が行われています。実行時に、単一のフレーズ処理を行い、事を簡素化したいとしましょう。このフレーズは7つの単語を持っていますので、最初のバケツでは10にする必要があります。結果的に3つのパッドが処理されます。 – RaduK

+0

私はコードを見て、私はあなたのポイントを理解しています。バケツは一回の実行(私が与えた例)に役立つことはありませんが、バッチ用です。 – RaduK

関連する問題