私はBig Dataを使用したMLには非常に新しく、以前は犬/猫の分類にKerasの一般的な畳み込みの例を使っていましたが、同様のアプローチを画像セットに適用すると、メモリの問題。Keras畳み込みネットワークを使用したメモリの問題
私のデータセットは、10048×1687ピクセルの非常に長い画像で構成されています。メモリの問題を回避するために、バッチサイズ1を使用して、モデルに一度に1つのイメージをフィードします。
このモデルには2つの畳み込みレイヤーがあり、それぞれのレイヤーに最大プールが続き、完全に接続されたレイヤーの直前に、平坦化レイヤーを約29万入力にします。
しかし、実行直後には、メモリ使用量が制限値(8Gb)を超えます。
1)ローカルのPython(無クラウドの利用)で、このような大きさの計算を処理するための最良のアプローチは何ですか:だから、私の質問は以下の通りです
?私が利用する必要がある追加のPythonライブラリがありますか?
TensorFlowをバックエンドとして使用すると、複数のGPUでネットワークを分割できます。 – Mathias