0

畳み込み式自動エンコーダでのトレーニング損失と検証損失が減少しないのはなぜですか。訓練データは、10496x1024であり、CAEは、32x32サイズの画像パッチをkerasに訓練したものです。私はすでにl2regularizationを試しましたが、あまり役に立たなかった。私は20エポックを訓練しています。他の選択肢には何がありますか?畳み込み式自動エンコーダでのトレーニング損失と検証損失があまり減少していない

出力:

エポック1/20 10496分の10496 [========] - 52S - 損失:0.4029 - val_loss: 0.3821

エポック2/20 10496/10496 [========] - 52秒 - 損失:0.3825 - val_loss: 0.3784

エポック3/20 10496/10496 [=======] - 52秒 - 損失:0.3802 - val_loss: 0.3772

Epo ch 4/20 10496/10496 [=======] - 51s - 損失:0.3789 - val_loss: 0.3757

エポック5/20 10496/10496 [=======] - 52s - 損失:0.3778 - val_loss: 0.3752

エポック6/20 10496分の10496 [=======] - 51S - 損失:0.3770 - val_loss: 0.3743

エポック7/20 10496分の10496 【=======] - 54S - 損失:0.3763 - val_loss: 0.3744

エポック8/20 10496分の10496 [=======] - 51S - 損失:0.3758 - val_loss: 0.3735

エポック9/20 10496分の10496 [=======] - 51S - 損失:0.3754 - val_loss: 0.3731

エポック10/20 10496分の10496 [===== ==] - 51S - 損失:0.3748 - val_loss: 0.3739

エポック11/20 10496分の10496 [=======] - 51S - 損失:0.3745 - val_loss: 0.3729

エポック12/20 10496/10496 [=======] - 54秒 - 損失:0.3741 - val_loss: 0.3723

エポック13/20 10496分の10496 [=======] - 51S - 損失:0.3736 - val_loss: 0.3718

エポック14/20 10496分の10496 [=======] - 52S - 損失:0.3733 - val_loss: 0.3716

エポック15/20 10496分の10496 [=======] - 52S - 損失:0.3731 - val_loss: 0.3717

エポック16/20 10496/10496 [=======] - 51秒 - 損失:0.3728 - val_loss: 0.3712

エポック17/20 10496/10496 [=======] - 49s - los s:0.3725 - val_loss: 0.3709

エポック18/20 10496/10496 [=======] - 36s - 損失:0.3723 - val_loss: 。3710

エポック19/20 10496分の10496 [=======] - 37S - 損失:0.3721 - val_loss: 0.3708

エポック20/20 10496分の10496 ======= =] - 37S - ロス:0.3720 - val_loss: 0.3704

+0

ネットワークアーキテクチャがないと、質問に答えることができません。あなたのモデルがデータを扱うほど複雑ではないように見えるので、両方のエラーが大きいです。 – pyan

答えて

0

あなたのネットワークはまだ学んでいる、とあなたがより高い学習率を試すことができエポック20でそんなに遅く、早期でより多くのエポックされていません十分なデータがある場合は停止方法を選択します。 このアプローチは、正則化法およびk倍交差検証にも適用できます。

関連する問題