0
テンソルフローでマルチGPUを使用しています。私は同じスコープで変数を共有することについて混乱しています。テンソルフローマルチプル共有変数
for i in xrange(FLAGS.num_gpus):
with tf.device('/gpu:%d' % i):
tf.get_variable_scope().reuse_variables()
// and do sth.
しかし、それは、それは再利用するための変数を持っていないので、私の理解では、少なくとも第1のGPUは、変数を作成する必要があります:
はhttps://github.com/tensorflow/models/blob/master/tutorials/image/cifar10/cifar10_multi_gpu_train.py
によると、最も簡単な方法です。また、最初のGPUでreuse = Falseを設定するコードもあります。
これを行う正しい方法は何ですか?