2016-04-06 13 views
0

私はPythonには新しく、リッジの二項回帰に適合したいと思います。 Iは二項回帰に利用可能であることを知っている:私はまた、L2ペナルティ付きロジスティック回帰をsklearn.linear_modelを装着することができることを知っている http://statsmodels.sourceforge.net/devel/glm.htmlリッジ二項回帰はPythonで利用できますか?

(size_i、success_i)

:二項として

http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html

は、私は、そのI ^番目の行を変更することにより、ベルヌーイ構造に私の二項の構造化データを変換した後scikitを使用することができ、ベルヌーイの和であります

をsize_iの長さのベクトルに入れて、success_i 1とsize_i - success_i 0を記録します。 しかし、size_iが非常に大きいので、これは私にとっては役に立ちません。

Pythonを使用して二項隆起回帰を適合させる方法はありますか?

答えて

2

statsmodels GLMには完全なペナルティサポートはありませんが、マスターでは弾力的なL1/L2ペナルティが適用されています。 それはまだちょうどL2リッジpenalityに合うオンラインドキュメント

https://github.com/statsmodels/statsmodels/blob/master/statsmodels/genmod/generalized_linear_model.py#L1007

GLM(...).fit_regularized(alpha=..., L1_wt=0)には含まれていません。

警告:これは統合されたばかりで、使用量はまだ目立っていないため、まだ実験的なものと考えられています。正しい結果が得られるはずですが、APIと実装はおそらく変わりません。

+0

ありがとうございます。 L2リッジペナルティは利用できませんが、統計的モデルの多くのモデルでは、PoissonとNegative Binomialを含むfit_regularized()メソッドを使用してL1ペナルティを利用できることが実際に分かりました。これらは、http://statsmodels.sourceforge.net/devel/genindex.htmlの「fit_regularized()(statsmodels.discrete.discrete_model.BinaryModelメソッド)」のリストにあります。これは私には素晴らしいニュースです。しかし、残念なことに、二項式は*一つではないようです。 – ThePrincess

+0

'GLM(y、X、family = families.Binomial(link = families.links.logit))'は私のために働きます。 – user48956

関連する問題