2016-12-19 3 views
3

複数のマシン上の複数のGPUに、deployment/model_deploy.pyを使用してTF-Slimモデル/スリムを実行する方法の例があると、ドキュメントはかなり良いですが、私はいくつかの部分が欠けています。具体的には、worker_deviceとps_deviceに何を入れる必要があり、さらに各マシンで何を実行する必要があるのでしょうか?複数のGPU /マシン間のTF-Slimの設定/フラグ

分散ページの一番下にあるような例はすばらしいでしょう。 https://www.tensorflow.org/how_tos/distributed/

答えて

0

回答が見つかったら、ここに投稿することを忘れないでください。私は同じ問題で苦労している。そこで、Tensorflowタグを追加します。

関連する問題