2017-03-19 14 views
0

私はセマンティックセグメンテーションのために深いCNNモデルを訓練しようとしています。モデルのサイズと入力画像の解像度が大きいため、batchsize = 1であってもメモリ不足になります。このような状況で、複数のGPUを使用してより多くのメモリを獲得するにはどうすればよいですか? (現在私はカフェを使用しています) ありがとうございました。batchsize = 1のときに複数のGPUを使用するにはどうすればよいですか?

+0

他のフレームワークを使用する方がよいと思われます。 mxnet、tensorflow、モデルの並列性を得ることができます(複数のGPUでデータの並列処理しかサポートしていません) – Dale

+0

Thanks @ Dale、TensorFlowの学習を開始する必要があります。 –

答えて

0

Daleすでに基本的な答えがあります.Caffeはモデルの並列処理をサポートしていません。

入力サイズを小さくするオプションはありますか?画像を縮小する(解像度を失う)か、画像を分割する(完全な画像結合を失う)ことは理にかなっていますか?それは入力とモデルをフィットさせるでしょうか?モデルをCaffeでコード化してデバッグしたことがあれば、少なくとも現行システムのトポロジーをスモークテストするのが良いでしょう。

+0

お返事ありがとうございます。 GPUとCPUの間のモダンな並列性を実現することは可能ですか?つまり、後者のレイヤーをCPUに置いていますか? (gpuコードを未実装と設定してください) –

+0

わかりません。私は純粋にCPU環境で働いています。私が知っている混在環境は、CPUが訓練の計算に完全に参加していないCPUをマスターしたGPUシステムです。おそらくこれは別の質問です。カフェはそれをサポートしません。 – Prune

+0

@Prune:piecesは、画像をパッチにランダムに切り抜くことを意味します。そうですか?画像をパッチに分割してフルイメージの結束を失う傾向があることを証明するための参考資料はありますか? H/8xW/8とHxW/8との間の適切なクロッピングオプションは、元のHxWからのH/2xW/2ですか?おかげで – user8264

関連する問題