3
複数のマシン上の複数のGPUに、deployment/model_deploy.pyを使用してTF-Slimモデル/スリムを実行する方法の例があると、ドキュメントはかなり良いですが、私はいくつかの部分が欠けています。具体的には、worker_deviceとps_deviceに何を入れる必要があり、さらに各マシンで何を実行する必要があるのでしょうか?複数のGPU /マシン間のTF-Slimの設定/フラグ
分散ページの一番下にあるような例はすばらしいでしょう。 https://www.tensorflow.org/how_tos/distributed/