は、あなたが(つまり、オブジェクトにどのようにニューラルネットワークの仮説のエラーを減らすために?
認識を行うために)画像にあるものを対象分類する正則ロジスティック回帰に
を実装していると仮定します。ただし、画像の新しい
セットであなたの仮説をテストするとき、あなたはそれが新しい画像上の予測と許容できないほど大きな
エラーになることがわかります。しかし、あなたの
仮説は
トレーニングセットに良好に機能(低エラーがあります)。次のうち有望なステップはどれですか?
は、あなたが(つまり、オブジェクトにどのようにニューラルネットワークの仮説のエラーを減らすために?
認識を行うために)画像にあるものを対象分類する正則ロジスティック回帰に
を実装していると仮定します。ただし、画像の新しい
セットであなたの仮説をテストするとき、あなたはそれが新しい画像上の予測と許容できないほど大きな
エラーになることがわかります。しかし、あなたの
仮説は
トレーニングセットに良好に機能(低エラーがあります)。次のうち有望なステップはどれですか?
私が自分の問題を解決した解決策は、トレーニングサンプルを増やして機能を減らすことです。
この問題は、通常「高分散」と呼ばれます。このような場合、トレーニングデータを単独で取得するだけでは、結果を改善することはできません。あなた自身の返答で指摘したように、フィーチャの数を減らすことは良いアプローチになることがあります。正規化されたロジスティック回帰を使用しているので、正規化パラメータを下げることも役に立ちます。
いいえ、反対です。オーバーフィットは高分散と同じで、高バイアスはトレーニングセットにアンダーフィットすることを意味します – nights
正確です。私は自分の投稿を編集しました、ありがとう。 –
この正確な質問は、MLクラスの質問です。それは非常に怠惰です... – nights