0
3つの異なるスケールのネットワークをパラレルの3つのGPUで訓練し、これらの出力のアンサンブルを作成したいとします。 (テンソルフローあり)複数のネットワークをテンソルフローと並行して異なるGPUでトレーニングするにはどうすればよいですか?
ネットワークごとにグラフと対応するセッションを作成する必要はありますか?これらのセッションを順次ではなく同時に実行させるにはどうすればよいですか?
3つの異なるスケールのネットワークをパラレルの3つのGPUで訓練し、これらの出力のアンサンブルを作成したいとします。 (テンソルフローあり)複数のネットワークをテンソルフローと並行して異なるGPUでトレーニングするにはどうすればよいですか?
ネットワークごとにグラフと対応するセッションを作成する必要はありますか?これらのセッションを順次ではなく同時に実行させるにはどうすればよいですか?
ネットワークごとにグラフと対応するセッションを作成する必要がありますか。
はい、ネットワークは完全に同じではないため、作成するグラフとセッションは別々にする必要があります。
これらのセッションを順次ではなく同時に実行するにはどうすればよいですか?
はtrain_graph3.py
、train_graph2.py
、次の3つのトレーニングスクリプトtrain_graph1.py
があるとします。同時に実行するには、これらのスクリプトをすべて別々に実行する必要があります。
CUDA_VISIBLE_DEVICES=0, train_graph1.py ....
CUDA_VISIBLE_DEVICES=1, train_graph2.py ....
CUDA_VISIBLE_DEVICES=2, train_graph3.py ....
私はこれを1つのスクリプトで実現しようとしていました。たぶん私はそれを複雑にしています。どうもありがとう。 – Gh0st