私のシナリオはこれです。ビッグデータセット(メモリにロードすることはできません)から2つのイメージを選択し、それらをニューラルネットワークと比較します。各トレーニングサンプルはランダムにで構成され、データセットから2つのイメージが選択されました。このランダムなプロセスは、ケース間の共分散を除去するために必要です。どのようにランダムにアクセスする必要がある大きなデータでネーチャーネットワークトレインを扱うか
しかし、メモリから2つの画像を選択することはできません。コンピュータはデータセットのサイズに余裕がないためです。したがって、私がサンプルを作るたびに、私は遅いディスクにアクセスする必要があります。このディスクアクセス時間は学習プロセスを大きく遅くします。 これまでのところ、私のベスト・アイデアは、ランダムにデータセットを複数の小さなデータセットに分割することです。そして、それぞれのsamllデータセットでニューラルネットワークを1つずつ完全に訓練します。
しかし、訓練されたモデルは、後の小さなデータセットによって混乱する可能性があります。
このランダムな大きなデータシナリオを処理するには良い方法がありますか?