2016-08-03 10 views
0

は、あなたが(つまり、オブジェクトにどのようにニューラルネットワークの仮説のエラーを減らすために?

認識を行うために)画像にあるものを対象分類する正則ロジスティック回帰に

を実装していると仮定します。ただし、画像の新しい

セットであなたの仮説をテストするとき、あなたはそれが新しい画像上の予測と許容できないほど大きな

エラーになることがわかります。しかし、あなたの

仮説は

トレーニングセットに良好に機能(低エラーがあります)。次のうち有望なステップはどれですか?

+0

この正確な質問は、MLクラスの質問です。それは非常に怠惰です... – nights

答えて

0

私が自分の問題を解決した解決策は、トレーニングサンプルを増やして機能を減らすことです。

0

この問題は、通常「高分散」と呼ばれます。このような場合、トレーニングデータを単独で取得するだけでは、結果を改善することはできません。あなた自身の返答で指摘したように、フィーチャの数を減らすことは良いアプローチになることがあります。正規化されたロジスティック回帰を使用しているので、正規化パラメータを下げることも役に立ちます。

+0

いいえ、反対です。オーバーフィットは高分散と同じで、高バイアスはトレーニングセットにアンダーフィットすることを意味します – nights

+0

正確です。私は自分の投稿を編集しました、ありがとう。 –

関連する問題