これらのCNNの結果について私にコメントをしてください。 私は2000トレーニング画像と400テスト画像を使用しました。 トレーニングの精度は完璧ですが、テストの精度は非常に低いです。 トレーニングイメージとテストイメージの間にはかなりのバリエーションがあると思います。 このケースでは誰でも良い考えがありますか?ケラスCNNトレーニングの精度は良いですが、テストの精度は非常に低い
[]
これらのCNNの結果について私にコメントをしてください。 私は2000トレーニング画像と400テスト画像を使用しました。 トレーニングの精度は完璧ですが、テストの精度は非常に低いです。 トレーニングイメージとテストイメージの間にはかなりのバリエーションがあると思います。 このケースでは誰でも良い考えがありますか?ケラスCNNトレーニングの精度は良いですが、テストの精度は非常に低い
[]
これは、オーバーフィッティングのクリアケースです。学習可能なパラメータはいくつありますか?たとえば、VGGnetには138Mのパラメータがあります。この場合、ネットワーク内の一部のニューロンが記憶されているトレーニングイメージをそのまま保持している必要があります。したがって、ネットワークが正常化していません。
まず、形状を区別するのが簡単な場合は、簡単なモデルを試すことができます。また、カラーチャンネルをスワップする(出力クラスに影響を与えない場合)、イメージを反転または回転させるなどの変換を介してトレーニングデータを増やすことで、ネットの一般化を改善できます。あなたの損失関数にL1/L2正規化を含め、ドロップアウトを試みる。
おそらくstats.stackexchangeに合っていますか? – Fezvez