フレンド! 複数のGPUで処理することについて質問があります。 私は4つのgpusを使い、以下のように3つの方法で単純なA^n + B^nの例を試しました。複数のgpuを使用したTensorflow処理パフォーマンス
シングルGPU
with tf.device('/gpu:0'): ....tf.matpow codes...
マルチGPU
with tf.device('/gpu:0'): ....tf.matpow codes... with tf.device('/gpu:1'): ....tf.matpow codes...
指定されない特定のGPU(私は多分使用GPUのすべてを考える)
....just tf.matpow codes...
これを試してみると、結果は理解できませんでした。 結果であった 1つのGPU:6.xの秒 2.複数のGPU(2つのGPU):2.xの秒 3.指定されない特定のGPU(多分4のGPU):4.xの秒
Iなぜ#2が#3よりも速いのか理解できない。 誰でも私を助けることができますか?
ありがとうございました。
#3は、GPUを使用しています。また、GPUでの最初のカーネル起動は、GPUあたり数秒を追加することができます。タイミングを開始する前に、それらのopsを実行してGPUを予熱する必要があります。http://stackoverflow.com/questions/40410210/tensorflow-2 -gpu-slower-then-single-gpu/40430717#40430717 –
PTXASのコンピューティング操作のコンパイルは、初期化時に各GPUデバイスに対して実行されます。 –