私は、VGG16とInceptionV3を微調整する方法についてインターネットで多くの例を見てきました。たとえば、VGG16を微調整するときに、最初の25層が固定されるように設定する人もいます。 InceptionV3では、最初の172のレイヤーがフリーズされます。しかし、再ネットについてはどうですか?resnet50モデルで微調整する方法は?
from keras.applications.resnet50 import ResNet50
base_model = ResNet50(include_top=False, weights="imagenet", input_shape=(input_dim, input_dim, channels))
..............
for layer in base_model.layers[:frozen_layers]:
layer.trainable = False
を私はfrozen_layersを設定する必要があり、どのように:我々は微調整を行うと、以下のように、我々は、ベースモデルのいくつかの層を凍結しますか?実際には、VGG16、VGG19、ResNet50、InceptionV3などで微調整を行うと、何層のレイヤーを固定する必要があるのか分かりません。誰も私にどのようにこれらのモデルを微調整するための提案を与えることができますか?特に、これらのモデルで微調整を行うと、何層の層の人々がフリーズしますか?好奇心旺盛だ
私たち自身の高密度レイヤーを鍛えるだけであれば、トランスファーラーニングと呼ばれています。 base_model(resnet、vggなど)のレイヤーを小さな学習率でトレーニングすると、微調整と呼ばれます。私は畳み込みブロックにいくつかの特別な意味があることを知っています。どのように微調整を行うためにベースモデルのレイヤーをフリーズするのですか? –
私はこのブログでこれらを参照してください:[ビルディング - パワフル画像分類モデル - 非常に小さなデータを使用](https://blog.keras.io/building-powerful-image-classification-models-using-非常にlittle-data.html) –