画像の40GBデータセットがあるので、一度に1つのバッチをメモリにロードすることは可能です。Keras:大きなデータセットの画像をバッチ単位で読み込み
データセットが小さい場合は、ImageDataGeneratorをジェネレータのバッチに使用できますが、大きなデータセットのため、メモリ内のすべてのイメージをロードできません。私はtensorflowで入力をシリアル化するために、このメソッドを使用しています
path_queue = tf.train.string_input_producer(input_paths, shuffle= False)
paths, contents = reader.read(path_queue)
inputs = decode(contents)
input_batch = tf.train.batch([inputs], batch_size=2)
が、私はKerasでこのタスクを達成する方法がわからない:
はtensorflowコードを次のように何かをするkerasのいずれかの方法があります。
['train_on_batch'](https://keras.io/models/sequence/)はどうですか? – desertnaut