複数のマシン、複数のGPUでテンソルフローを実行します。最初のステップとして、分散Tensorflowがsess.run()でスタックしています
ベローはsess.run()stucks
import tensorflow as tf
cluster = tf.train.ClusterSpec({"local": ["localhost:2222", "localhost:2223"]})
server = tf.train.Server(cluster, job_name="local", task_index=0)
a = tf.constant(8)
b = tf.constant(9)
sess = tf.Session('grpc://localhost:2222')
すべてはここまで正常に動作している後行です(tensorflowチュートリアルhttps://www.tensorflow.org/how_tos/distributed/以下)単一マシン上の分散tensorflowを試したが、とき私はsess.run()を実行しています。
sess.run(tf.mul(a,b))
既に誰かが分散型テンソルフローで作業している場合は、解決策やその他のチュートリアルをうまく教えてください。