-2
理論的には、ニューラルネットワークのレイヤー数を増やすにつれて、トレーニングエラーが減少する必要があります。しかし実際にはそれは一点まで減少し、増加する。なぜこれが起こるのですか(コースでAndrew Ngが述べたように)非常に深いニューラルネットのトレーニングエラー
理論的には、ニューラルネットワークのレイヤー数を増やすにつれて、トレーニングエラーが減少する必要があります。しかし実際にはそれは一点まで減少し、増加する。なぜこれが起こるのですか(コースでAndrew Ngが述べたように)非常に深いニューラルネットのトレーニングエラー
訓練データを覚えているほど大きくなり、一般化能力を失ったためです。
こんにちは@Andrii、訓練データを覚えている十分なネットワークが簡単に正しくなければなりませんか? –
私はそれが非常にNNのアーキテクチャ、トレーニングアルゴリズムとデータに依存すると思う – Andrii