私は、比較的大きなRNN(128セルLSTMといくつかの追加レイヤー)を訓練するコードに取り組んでいます。主なプロセスはCPU上のコアを最大限に活用することです。これが正常かどうか、または最適化できるかどうかは疑問です。トレーニングループ(session.run呼び出し)中には、1つのコアで100%CPU負荷を使用している間に約60〜70%のGPU負荷を使用しています。データサンプリング作業はすでに他のコアで同時に実行されているので、モデルパラメータを更新するだけです。 TensorFlowのこのようなアプリケーションではこれは定期的ですか、GPUの全容量を使用している間はCPU負荷がはるかに低くなっている必要がありますか?TensorFlow RNNトレーニングCPU使用率が60%(GPUが60%のみの場合)
0
A
答えて
0
我々はまだそれに完全なマニュアルを持っていませんが、それはより多くの時間が起こっている場所のアイデアのあなたを与えるかどうかを確認するために、プロファイリング情報を見てとることができます。 はhttps://github.com/tensorflow/tensorflow/issues/1824#issuecomment-225754659
0
私は思いますRNNセルには2つの入力があり、データを転送するときにその2つの方向入力を待つ必要があります。つまり、CNNほど簡単ではありません。大きなバッチサイズを使用してGPUの使用率を向上させることはできますが、そのような問題が発生する可能性があります。ディープラーニングの大規模バッチトレーニング:一般化ギャップとシャープミニマム
関連する問題
- 1. GPU + CPU Tensorflowトレーニング
- 2. TensorFlow - GPUトレーニングのみのアクセラレーション?
- 3. tensorflowマルチGPUトレーニング
- 4. Tensorflowでのトレーニング中のGPU使用量が非常に低い
- 5. GPUを使用しないAWSのトレーニングCPU
- 6. Tensorflow:再トレーニング開始v3はGPU使用率0%を示します
- 7. CPUの変数、GPUのトレーニング/グラジエント
- 8. Tensorflowを使用したCPU/GPUのメモリ使用
- 9. cpu対gpu - CPUがより良い場合
- 10. Tensorflow - Resource exhausted error CPU&GPU
- 11. マルチGPUトレーニングでTensorFlowのデータセットAPIを使用する
- 12. Tensorflow RNNセルの重みが異なる
- 13. パイプのエラーが壊れた場合のCPU使用率が増加します
- 14. TensorFlow-GPU + Pythonマルチプロセッシングを使用する場合のバグ?
- 15. 24 * 60 * 60 * 1000 * 1000を24 * 60 * 60 * 1000で割った値がJavaで1000と等しくないのはなぜですか?
- 16. MATLABの修正((20.45-20)* 60)が修正((20)* 60)と等しくない理由
- 17. modelsim programming 60 counter(エラー読み込みデザイン)
- 18. CPU使用率が高い
- 19. 60秒の遅延対60秒の遅延aws-lambda/RDSエラーメッセージ?
- 20. ソケットが60秒間静かになる場合にのみ、6バイトが失われますか?
- 21. GPUのみが使用されています1-5%Tensorflow-gpuとKeras
- 22. Chromeバージョン60 SpeechRecognition
- 23. Symbianシリーズ40/60
- 24. CUDAでのGPU使用率が低い
- 25. int * array [60]とint * array = new int(60)の違いです。
- 26. TensorFlow-GPUにコマンドラインからCPUを使用させる
- 27. tensorflow深いmnist例では、CPU VS GPUを使用して
- 28. TensorFlowはCPUとGPUを独立して使用します
- 29. イーサネットケーブルがない場合、イーサネットは60秒間ブロックを開始します
- 30. mysqldのパフォーマンスが高いCPU使用率とメモリ使用率
興味深い...私は30%のCPUと25%のCPUしか使用せず、2つのいずれかが飽和していない理由について答えを探しています。 – Trejkaz