私のモデルをパラメータを共有しているが、データのバッチが異なる複数のGPUで実行したい。KerasでマルチGPUトレーニングを行うには?
model.fit()
でこれを行うことはできますか?他の選択肢はありますか?
私のモデルをパラメータを共有しているが、データのバッチが異なる複数のGPUで実行したい。KerasでマルチGPUトレーニングを行うには?
model.fit()
でこれを行うことはできますか?他の選択肢はありますか?
make_parallel関数を使用してください: https://github.com/kuza55/keras-extras/blob/master/utils/multi_gpu.py (これはテンソルフローバックエンドでのみ動作します)。
Kerasは、keras.utils.multi_gpu_model
を使用して複数のGPUでデバイス並列処理をサポートしています(v2.0.9以降)。
現在のところ、Tensorflowバックエンドのみサポートしています。
ここ良い例(ドキュメント):また、ここでは取り上げhttps://keras.io/getting-started/faq/#how-can-i-run-a-keras-model-on-multiple-gpus :https://datascience.stackexchange.com/a/25737