0
私はscikit-learningの回帰のためにいくつかの基底推定子でadaboostを使用したいと思いますが、それを行うことができるクラスはありません。ソースコードを変更する以外は何もできませんか?scikit-learnで異なる基礎推定量でadaboostを使用するには?
私はscikit-learningの回帰のためにいくつかの基底推定子でadaboostを使用したいと思いますが、それを行うことができるクラスはありません。ソースコードを変更する以外は何もできませんか?scikit-learnで異なる基礎推定量でadaboostを使用するには?
sklearn:adaboostでこのページを読むことができます。 私は個人的には、ベースモデルとしてXGboost、GBM、RandomForest、ExtraTreeを積み重ねてスタッキングしてより良いaucスコアを得るのが好きです。
複数のベースエスティメータをスタックまたはブレンドする場合は、github:[スタック全般](https://github.com/andreashsieh/stacked_generalization)でこのモジュールをチェックアウトできます。このモジュールはdustinstansburyによって開発されたもので、コードをうまく機能させるためにパッチを作成しました。 –
私は回帰のためにadaboostを使用しているので、このモジュールは私を助けないかもしれません – modkzs
@AndreasHsieh:どのように異なるアルゴリズムを積み重ねますか? – Alex