2017-06-15 30 views
-1

こんにちは私は深い学習と畳み込みニューラルネットワークを初めて使います。誰かが下の図の問題を説明してもらえますか?誰かが私に、検証精度の変動がここで問題であると言いました。しかし、私はこの変動の悪影響をあまり理解していません。なぜ私たちは図の最後の点を見ていないのですか?畳み込みニューラルネットワークの検証精度

enter image description here

答えて

0

深い学習モジュールを訓練するとき、あなたがそれを検証する必要があります。 これは、目に見えないデータをアルゴリズムに表示していることを意味します。

したがって、妥当性の確度はトレーニングの精度よりも低くなる可能性があります。オーバーフィットと呼ばれるシナリオがあるためです。あなたの訓練アルゴリズムが訓練データにあまりにも付着していて、他の見えないデータにうまく一般化できないところ。

変動する問題では、正常である可能性があります。我々はアルゴリズムを訓練し、テストすることが確率的な方法であるからです。

関連する問題