2017-05-24 6 views
0

0から9までの歪んだ数字の画像を分類するためにCNNをトレーニングするとき、トレーニングセットとテストセットの精度が明らかに向上しました。エポックにおいてMxNet:いくつかの繰り返しの後で精度がランダムなプレディクトロンに落ちる

Epoch[0] Batch [100] Train-multi-accuracy_0=0.296000 
... 
Epoch[0] Batch [500] Train-multi-accuracy_0=0.881900 

[1]及びエポック[2]の精度はその後しかし、

Epoch[3] Batch [300] Train-multi-accuracy_0=0.926400 
Epoch[3] Batch [400] Train-multi-accuracy_0=0.105300 
Epoch[3] Batch [500] Train-multi-accuracy_0=0.098200 

、0.85と0.95との間でわずかに振動し、精度がネットワークのみランダム与えた意味その周り0.1でした予測。 私はこのトレーニングを何度か繰り返しましたが、毎回このケースが発生しました。どうしたの? 適応学習率戦略が理由ですか?

model = mx.model.FeedForward(..., 
          optimizer = 'adam', 
          num_epoch = 50, 
          wd = 0.00001, 
          ..., 
          ) 
+0

あなたは過学習を始めたり、学習率やモデルの発散を減らす必要があるポイントをヒットする可能性があります。学習率のスケジュールを使用していますか?これは固定学習率でですか?正確ではなく損失を監視できますか? –

答えて

0

訓練しているモデルはなんですか? mnistデータセットを使用している場合は、通常、sgdで訓練されたシンプルな2層MLPがかなり高い精度をもたらします。

+0

私のデータセットはMNISTではなく、歪んだ文字の合成ライブラリです。私が心配しているのは急激な低下の理由です。私はこの問題を分析するための提案が必要です。 – Lolith

関連する問題