0
グラデーションが「メモリ不足」エラーになるので、どのように複数のGPUでグラデーション機能を実行できますか?tf.gradients()関数を複数のgpuで動作させるにはどうすればいいですか?
with tf.device('gpu:1'):
trainable_variables = tf.trainable_variables()
grads = tf.gradients(self.loss, trainable_variables)
with tf.device('/gpu:2'):
var1=trainable_variables[60:107]
grad1=tf.gradients(self.loss, var1)
with tf.device('/gpu:3'):
var2=trainable_variables[57:107]
grad2=tf.gradients(self.loss, var2)
with tf.device('/gpu:3'):
optimizer = tf.train.RMSPropOptimizer(
self.lrn_rate,
decay=0.9,
momentum=0.9,
epsilon=1.0)
apply_op1 = optimizer.apply_gradients(
zip(grads, trainable_variables),
global_step=self.global_step, name='train_step')
上記のコードは唯一のGPUで実行されます:グラデーション\またはgradients_1の\名前空間は唯一のGPUに出ているので、1:1、どのようにすることができ、複数のGPUで、この作品?