2016-12-01 17 views
1

トレーニング後に時間がかかるので、トレーニングを続けて、scikitlearnのnusvc()とnearestneighbor()を使ってサンプルを追加する方法がありますか?scikit-learnでsvmとknnのトレーニングを続けるには?

+0

pickleまたはsklearns tuned [model persistence functions](http://scikit-learn.org/stable/modules/model_persistence.html)を使用して、分類者全体をいつでも保存できます。これにより、オブジェクト全体を戻すことができます。もちろん、与えられた重みからwarm_startingを使って再度訓練することができます。基本推定器がこのために準備ができていない場合(新しいデータを追加すること)には限界がある可能性があります。 1つの可能な例:新しいデータにはもう1つのターゲットラベルが含まれています。これは問題である。 – sascha

+0

クラスの数が同じなら、時間を短縮して再学習する方が簡単でしょうか? – jude

+0

[これは始める]を読む(http://stackoverflow.com/questions/23056460/does-the-svm-in-sklearn-support-incremental-online-learning)。 – sascha

答えて

1

SVMについては、SGDClassifierクラスの能力をonline learningにすることができます。これを行うには、partial_fit()機能を使用する必要があります。

+0

knearestneighbor()についてはどうなりますか? – jude

+0

私はscikitのドキュメント(下のリンク)にその特定の機能が表示されません。 Scikit KNNメ​​ソッドが部分的に適合しているとは思われません。すべてのデータに対してKNNを再トレーニングするのにどれくらいの時間がかかりますか? http://scikit-learn.org/stable/modules/classes.html#module-sklearn.neighbors – neelshiv

+0

私は間違っていました。 LSH KNNクラスは部分的に適合しています。私はこの関数に関するscikitのドキュメントを読んで、それがあなたのためにうまくいくかどうかを調べるためにあなたのデータをテストします。 http://scikit-learn.org/stable/modules/generated/sklearn.neighbors.LSHForest.html#sklearn.neighbors.LSHForest – neelshiv