元のVGGネットワークは、サイズ256x256x3の入力を受け入れます。 Cifar-10のデータを訓練するには、データを256x256x3にリサイズする必要がありますか?それとも他の方法がありますか?VGGネットを使用したCifarデータの分割
私は、サイズ32x32x3のCifar-10データを使用してVGGネットワークを微調整しようとしています。
元のVGGネットワークは、サイズ256x256x3の入力を受け入れます。 Cifar-10のデータを訓練するには、データを256x256x3にリサイズする必要がありますか?それとも他の方法がありますか?VGGネットを使用したCifarデータの分割
私は、サイズ32x32x3のCifar-10データを使用してVGGネットワークを微調整しようとしています。
VGGでCifar-10データを訓練するには、サイズが256x256x3の入力データを与える必要があります。さまざまな入力レイヤーには、このイメージのサイズ変更を処理するための変換パラメータがあります。
しかし、32x32イメージを256x256にアップスケールすることは、イメージデータの大部分が利用可能な32x32イメージデータからの近似によって作成されるため、適切な方法ではありません。だから私はこれを行うことはお勧めしません。しかし、これがデモVGGの微調整を試すことであれば、変換パラメータを設定することでそれを行うことができます。
VGG-16は小さい画像では複雑すぎるため、縮小画像の場合は縮小画像を使用する必要があります。
私はこのモデルがあなたの問題のために良い作品だと思うし、それは、GPUでそれすべてを訓練するためには難しいことではありません。
model = Sequential()
model.add(Conv2D(32, (3, 3), padding='same',
input_shape=x_train.shape[1:]))
model.add(Activation('relu'))
model.add(Conv2D(32, (3, 3)))
model.add(Activation('relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Dropout(0.25))
model.add(Conv2D(64, (3, 3), padding='same'))
model.add(Activation('relu'))
model.add(Conv2D(64, (3, 3)))
model.add(Activation('relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Dropout(0.25))
model.add(Flatten())
model.add(Dense(512))
model.add(Activation('relu'))
model.add(Dropout(0.5))
model.add(Dense(num_classes))
model.add(Activation('softmax'))
感謝。 32x32画像を高画質化することは良い考えではない場合は、他にどのような方法を試すことができますか? – Mansumen