私はPythonには新しく、リッジの二項回帰に適合したいと思います。 Iは二項回帰に利用可能であることを知っている:私はまた、L2ペナルティ付きロジスティック回帰をsklearn.linear_modelを装着することができることを知っている http://statsmodels.sourceforge.net/devel/glm.htmlリッジ二項回帰はPythonで利用できますか?
。
(size_i、success_i)
:二項としてhttp://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html
は、私は、そのI ^番目の行を変更することにより、ベルヌーイ構造に私の二項の構造化データを変換した後scikitを使用することができ、ベルヌーイの和であります
をsize_iの長さのベクトルに入れて、success_i 1とsize_i - success_i 0を記録します。 しかし、size_iが非常に大きいので、これは私にとっては役に立ちません。
Pythonを使用して二項隆起回帰を適合させる方法はありますか?
ありがとうございます。 L2リッジペナルティは利用できませんが、統計的モデルの多くのモデルでは、PoissonとNegative Binomialを含むfit_regularized()メソッドを使用してL1ペナルティを利用できることが実際に分かりました。これらは、http://statsmodels.sourceforge.net/devel/genindex.htmlの「fit_regularized()(statsmodels.discrete.discrete_model.BinaryModelメソッド)」のリストにあります。これは私には素晴らしいニュースです。しかし、残念なことに、二項式は*一つではないようです。 – ThePrincess
'GLM(y、X、family = families.Binomial(link = families.links.logit))'は私のために働きます。 – user48956