技術的に言えば、複雑なネットワークと十分な時間があれば、訓練エラーが0になるまで任意のデータセットをオーバーフィットできますか?意図的にオーバーフィットニューラルネットワーク
2
A
答えて
4
ニューラルネットワークは、あなたにエラーを与え、かなり限り、入力から出力までの決定論的写像fが存在するとして、常にはに(十分な大きさのネットワークのための)パラメータのセットが存在することを意味しユニバーサルapproximators、ありますいくつかの値ではなくデータセットが(それが分布で)無限大であるならば、(ベイズリスクと呼ばれる)最小得られる誤差がゼロよりも大きくすることができる
- 、バリ:れる最小の可能なエラー、しかしから arbitrarly近いありますe(かなり異なるクラス/値の「重複」の尺度)。その後、
- 写像fが非決定論的である場合再びゼロ以外ベイズリスクがあるE(これは与えられたポイントが与えられた確率で、「複数」の値を持つことができるというの数学的な方法である)
- arbitrarly近いですは最小を意味しません。たとえ最小誤差がゼロであっても、ゼロに達するために "十分に大きな"ネットワークが必要なわけではありませんが、いつもveeeeryの小さなイプシロンで終わるかもしれません(ただし、望む限り長く減らすことができます)。たとえば、Sigmoid/Softmax出力を持つ分類タスクで訓練されたネットワークでは、アクティベーションを常に「1に近づける」または「0に近い」ことができるため、ログ損失(クロスエントロピー損失)を最小限に抑えることはできませんが、どちらも達成できませんこれらの。
だから、数学的な観点からの回答は、実用的な観点から、何ではありません - 有限トレーニングセットと決定論的マッピングの仮定の下で - 答えはイエスです。
特に精度のを尋ねるとき、データポイントごとに固有のラベルを持つ有限のデータセットを持つと、100%の精度を持つニューラルネットワークを手作業で簡単に構築できます。しかし、これは最小限の損失を意味するものではありません(前述)。したがって、最適化の観点からは、「ゼロ誤差」は得られません。
関連する問題
- 1. 意図的に無意味なMIMEタイプ
- 2. 意図的にハイフンを無視する
- 3. 意図的にNaNを返します
- 4. Python 3の意図的なエラー
- 5. 意図
- 6. 意図
- 7. 意図
- 8. その活動中に殺害意図(カメラ録画意図)
- 9. 意図は
- 10. シェア意図は
- 11. アンドロイドエラーの意図
- 12. 意図とSetClassName
- 13. 意図的にスクリプトをSQLインジェクション可能にする
- 14. MediaCodec - 意図的にオーディオトラックに無音を追加する
- 15. 明示的かつ暗示的な意図
- 16. JQuery Ajax意図的にエラー関数を実行します。
- 17. なぜboost :: checked_deleteは "意図的に複雑"ですか?
- 18. Java:意図的にBadPaddingExceptionをキャッチしない
- 19. オーバーライドドッカー作成ファイル内のボリュームを意図的に削除する
- 20. 意図的に403の返信を送信する
- 21. ios-chartsスウィフト - 意図的にブリード/オーバーフローするチャートバーのグラフ
- 22. 意図的にシステムを閉じて再起動するアプリケーション
- 23. 黙示的な意図から親の活動に戻る
- 24. 意図的にhaskellで無限型を定義する
- 25. AppEngine上の意図的に遅い読み込みのPythonアプリケーション
- 26. ARMv7で意図的にプリフェッチを中止する方法
- 27. Androidアプリクラッシュ..意図フラグ?
- 28. トレーニング負の意図
- 29. オートラジオン放送意図?
- 30. Luis悪い意図
データセットに異なるタグを持つ2つの同じサンプルがある場合 – user2717954