2017-10-03 6 views
0

は、私は、データセット、0-9, A-Znacとして画像の私自身のシミュレーションを使用し、定期的に発生します。トレーニングの精度が100%に達した後、突然減少して100%に戻ります。

  • 37のカテゴリの合計、
  • は、フォントの15種類、
  • 各フォント千個の言葉があります
  • 合計509000枚(いくつかのフォントでは一部の文字が欠けている)、
  • そのうち70%がトレーニングセット、30%がテストセットです。

図のサイズは28x28グレースケール、黒い背景と白い単語です。

デモネットワークの手書き認識(2層conv)のテンソルフローを使用しています。損失をカウントするにはtf.nn.softmax_cross_entropy_with_logitsを使用してください。

それぞれ10000と20000の結果の反復で示されているように、なぜこのような奇妙な状況がありますか?精度が突然

反復(定期的に)落ちる万

iteration 10000

反復20000

iteration 20000

+0

データの順序をランダム化しましたか?バッチトレーニングを使用している場合、そのモデルは(例えば)A-Zのみを学習し、数は学習しないことがあります。あなたが数字を巡回するたびに、それはひどく実行されますが、数回のバッチ以降は手紙に戻ってから実際に学ぶ機会はありません。 – user6916458

+0

ありがとうございます。それは理由かもしれない。私はいくつかの修正をしようとします。 –

答えて

0

私はこれが私の質問に関連していると思う:

Loss increases after restoring checkpoint

私の側では、このTensorboard chart

を見てみましょう、モデルがチェックポイントから復元されるたびに、私は、パフォーマンスの低下を持っています。

関連する問題