tensorflow's cifar10 multi-GPU exampleには、GPUごとにトレーニングイメージのキューが1つ作成されているように見えます。物事を行う「正しい」方法は、すべての塔に1つの列を供給することではないでしょうか?その場合は、共有キューの使用例がありますか?Tensorflow:マルチGPUシングル入力キュー
5
A
答えて
12
CIFAR-10モデルのコードで複数の入力キューが使用されていることは間違いありません(を経由してcifar10.distorted_inputs()
への複数の呼び出しによって)。
GPUの間で共有キューを使用する最も簡単な方法は、次の操作を実行することであろう。
Nは、GPUの数であり、Nの因数でバッチサイズを増やします。
cifar10.distorted_inputs()
からcifar10.tower_loss()
の外に電話をかけ、loop over GPUsの外に移動します。スプリット0番目(バッチ)の次元に沿って
cifar10.distorted_inputs()
から返されimages
とlabels
テンソル:次のようにimages
とlabels
の引数を取り、それを呼び出すためにimages, labels = cifar10.distorted_inputs() split_images = tf.split(0, FLAGS.num_gpus, images) split_labels = tf.split(0, FLAGS.num_gpus, labels)
修正
cifar10.tower_loss()
:for i in xrange(FLAGS.num_gpus): with tf.device('/gpu:%d' % i): with tf.name_scope('%s_%d' % (cifar10.TOWER_NAME, i)) as scope: loss = tower_loss(scope, split_images[i], split_labels[i])
関連する問題
- 1. tensorflowマルチGPUトレーニング
- 2. SeqGAN用マルチGPU Tensorflow
- 3. TensorFlow:マルチGPU構成(パフォーマンス)
- 4. TensorflowマルチGPU MNISTクラシファイア:低精度
- 5. マルチGPU /タワーセットアップTensorflow 1.2見積り
- 6. Tensorflow GPU /マルチGPUがメモリを割り当てる方法は?
- 7. マルチプロセッシングは、シングルGPU
- 8. TensorflowでのマルチGPUのトレーニング:より簡単な方法?
- 9. マルチGPUトレーニングでTensorFlowのデータセットAPIを使用する
- 10. OpenGLマルチGPUのサポート
- 11. 理解tensorflowキューとCPU <-> GPU転送
- 12. 入力キューが応答しないTensorFlowプログラムがハングする
- 13. Tensorflowトレーニングと検証入力キューの分離
- 14. Tensorflow:入力キューを一括してキューソースを変更する
- 15. シングルvCPU対マルチvCPU上のノードJS
- 16. Tensorflow OOM on GPU
- 17. Tensorflow-GPUのインポートエラー
- 18. GPU + CPU Tensorflowトレーニング
- 19. Tensorflow contrib.learn.Estimator multi-GPU
- 20. Tensorflow-GPUエラー - Pycharm
- 21. Tensorflow GPU - Spyder
- 22. スレッド入力キュー
- 23. TensorFlowの自動デバイス配置はマルチGPUケースを処理しますか?
- 24. TensorFlow:マルチGPUトレーニングのチェックポイントモデルを復元することは可能ですか?
- 25. Tensorflowの推奨GPU
- 26. TensorFlow GPU CUDA CUDDNエラー
- 27. TensorFlow GPUのLinuxインストール
- 28. ゲーム用GPUとTensorFlow
- 29. Tensorflow GPUアプリケーションクラッシュJupyterノートブックカーネル
- 30. Tensorflow GPUインストールエラー、Windows 10