statsmodelのロジスティック回帰モデルの12ペナルティをパラメータなどで入力する方法はありますか?私はちょうどドキュメントのl1ペナルティを見つけましたが、l2ペナルティは何も見つかりませんでした。Python:l2-statsmodelsのロジスティック回帰モデルに対するペナルティ?
答えて
Logit、Poisson、MNLogitのようなstatsmodels.discreteのモデルでは、現在のところL1のペナルティ化しかありません。しかし、GLMや他のいくつかのモデルのための弾性ネットは最近、統計モデルマスターに統合されました。
バイナリ応答を持つ2項のGLMは、discreteと同じモデルです。実装は異なりますが、LOGIです。 L2ペナルティの私の答えを参照してくださいIs ridge binomial regression available in Python?
構造化されたペナルティマトリックスを使ったL2ペナルティは、一般化された加法モデル、GAM、スプラインフィッティングなどの粗さペナルティとして使われます。
ドキュメントについては、statsmodels.regression.linear_model.OLS.fit_regularized
を詳しく見てみると、現在のバージョンのstatsmodelsでは、基本的にはL1とL2のペナルティの凸型の組み合わせであるElastic Netの正規化が可能です(より堅牢な実装では)、ナイーブな実装の望ましくない行動を減らすの詳細については、ウィキペディアの「弾性ネット」を参照してくださいするには事後処理:
あなたは、ドキュメントのfit_regularized
のパラメータを見ている場合:
OLS.fit_regularized(method='elastic_net', alpha=0.0, L1_wt=1.0, start_params=None, profile_scale=False, refit=False, **kwargs)
L1_wt
は、最初の式ではちょうどlambda_1であることがわかります。あなたが探しているL2ペナルティを得るには、関数を呼び出すときに引数としてL1_wt=0
を渡すだけです。例として:
model = sm.OLS(y, X)
results = model.fit_regularized(method='elastic_net', alpha=1.0, L1_wt=0.0)
print(results.summary())
が入力X
からターゲットy
を予測するあなたのL2罰せ回帰を与える必要があります。
希望に役立ちます!
P.S.最後の3つのコメント:
1)statsモデルは現在、method
引数のオプションとしてelastic_net
を実装しています。だから、L1とL2とそれらの線形結合が得られますが、それ以外のものはありません(少なくともOLSの場合)。
2)L1ペナルティド回帰= LASSO(最小絶対収縮および選択演算子)。 3)L2ペナルティリグレッション=リッジ回帰、Tikhonov-Miller法、Phillips-Twomey法、制約付き線形反転法、および線形正則化の方法を含む。
クールですが、これはロジスティック回帰ではなくOLSです。 – user48956
正規化ロジスティック回帰の場合:m = statsmodels.genmod.generalized_linear_model.GLM(y、X、family = families.Binomial(link = links.Logit)); m.fit_regularized(...)? – user48956
あなたの例では、L1_wt = 0のときにL2 =アルファですか? (α= L1 + L2 ... L1 = 0、L2 = 10に設定したい場合はこれが機能しますか?) – user48956
- 1. ロジスティック回帰モデルのロジスティック曲線を作成する
- 2. テンソルフローのロジスティック回帰モデルの係数
- 3. ロジスティック回帰sklearn - 列車と適用モデル
- 4. ニューラルネットワーク(隠れ層なし)対ロジスティック回帰?
- 5. Tensorflowロジスティック回帰
- 6. Rロジスティック回帰
- 7. Pythonロジスティック回帰
- 8. ロジスティック回帰は
- 9. SPSSロジスティック回帰
- 10. ロジスティック回帰Python
- 11. Pythonのロジスティック回帰
- 12. Rのロジスティック回帰モデルをテストするには?
- 13. R gbmロジスティック回帰
- 14. ロジスティック回帰ダブルループR
- 15. ロジスティック回帰モデルによる予測の誤りR
- 16. Spark DataFrame APIロジスティック回帰モデルの代入を調整する
- 17. pymc3で3レベルのロジスティック回帰モデルを作成する
- 18. 適合モデルのロジスティック回帰オブジェクトを再利用する
- 19. アイリスデータセットのロジスティック回帰モデルに適合できません
- 20. Sklearnのロジスティック回帰モデルにクロスバリデーションとAUC-ROCを使用
- 21. Rキャレットパッケージのロジスティック回帰チューニングパラメータグリッド?
- 22. Pythonのロジスティック回帰計算
- 23. ロジスティック/序数回帰のAIC
- 24. Apache Sparkのロジスティック回帰アルゴリズム
- 25. ロジスティック回帰の実装
- 26. ロジスティック回帰モデルを読み込むには?
- 27. Sparkでのロジスティック回帰モデルの面積UnderROCの計算
- 28. スパーク:パイプラインモデルからのMLロジスティック回帰モデルのサマリーの抽出
- 29. は、私はロジスティック回帰モデルを持っているSAS
- 30. scikitで異なるフィーチャ次元を持つロジスティック回帰モデルlearn
見つけたドキュメントにリンクまたはアドレスを指定することはできますか? – piRSquared
私はこのモデルをstatsmodelsから参照しています:http://statsmodels.sourceforge.net/0.6.0/generated/statsmodels.discrete.discrete_model.Logit.html モデルを正規化に適合させるには、おそらくこれを使用できますメソッド:http://statsmodels.sourceforge.net/0.6.0/generated/statsmodels.discrete.discrete_model.Logit.fit_regularized.html#statsmodels.discrete.discrete_model.Logit。fit_regularized パラメータメソッドでは、 '' l1 'または' l1_cvxopt_cp''というオプションが見つかりました。どちらもおそらく検索対象のオプションです – TheDude
うわー!そのドキュメントは明確ではありません。申し訳ありませんが、私はそれについて明確な感覚をすることはできません。私はl2を扱うソルバーを書いた。コスト関数はどこでも微分可能であるため、勾配が存在するため、一般に12ペナルティで解く方が簡単です。私はそれがどこかにあると仮定しなければならない。私がもっと助けることを望みます。 – piRSquared