0
Seq2Seq TensorFlowチュートリアルでなぜバケツが導入されたのだろうと思います。パディング記号を処理しないことで効率の向上を理解していますが、rnn
を使用し、sequence_length
パラメーターを指定すると、パディングの処理を避けることができます。または、dynamic_rnn
を使用している場合Seq2Seq TensorFlowチュートリアルでのバケットの使用
複数のデバイス/マシン間でトレーニングを配布するのに役立つからですか?
私は最初の理由に同意します:)しかし、バケツがなぜ助けになるのですか?フレーズサイズに近いバケットサイズであっても、まだパディング処理が行われています。実行時に、単一のフレーズ処理を行い、事を簡素化したいとしましょう。このフレーズは7つの単語を持っていますので、最初のバケツでは10にする必要があります。結果的に3つのパッドが処理されます。 – RaduK
私はコードを見て、私はあなたのポイントを理解しています。バケツは一回の実行(私が与えた例)に役立つことはありませんが、バッチ用です。 – RaduK