0
は、私は、データセット、0-9, A-Z
、nac
として画像の私自身のシミュレーションを使用し、定期的に発生します。トレーニングの精度が100%に達した後、突然減少して100%に戻ります。
- 37のカテゴリの合計、
- は、フォントの15種類、
- 各フォント千個の言葉があります
- 合計509000枚(いくつかのフォントでは一部の文字が欠けている)、
- そのうち70%がトレーニングセット、30%がテストセットです。
図のサイズは28x28グレースケール、黒い背景と白い単語です。
デモネットワークの手書き認識(2層conv)のテンソルフローを使用しています。損失をカウントするにはtf.nn.softmax_cross_entropy_with_logits
を使用してください。
それぞれ10000と20000の結果の反復で示されているように、なぜこのような奇妙な状況がありますか?精度が突然
反復(定期的に)落ちる万
反復20000
データの順序をランダム化しましたか?バッチトレーニングを使用している場合、そのモデルは(例えば)A-Zのみを学習し、数は学習しないことがあります。あなたが数字を巡回するたびに、それはひどく実行されますが、数回のバッチ以降は手紙に戻ってから実際に学ぶ機会はありません。 – user6916458
ありがとうございます。それは理由かもしれない。私はいくつかの修正をしようとします。 –