2016-10-07 7 views
1

私はCIFAR10の例で128人のワーカーと1つのパラメータサーバを使用してDistributed Tensorflowを実行しています。Tensorflowの訓練データはどのように「バッチ」に配布されていますか?

FLAGS.batch_sizeが各ワーカーに送信される各バッチのサイズを決定するか、このFLAGS.batch_sizeがすべてのワーカーに送信される各バッチのサイズを決定するかどうかは疑問でしたか?

この違いは、あまりにも多くの作業者にバッチを分割すると通信が行きすぎて計算が不十分になる可能性があるため、パフォーマンスに影響します。

答えて

0

分散型CIFAR10のバッチサイズは、GPU単位のバッチサイズを参照しています。

(ただし、同期モデルの中には集計バッチサイズと呼ばれるものがあります)

関連する問題