答えて

1

sklearn:adaboostでこのページを読むことができます。 私は個人的には、ベースモデルとしてXGboost、GBM、RandomForest、ExtraTreeを積み重ねてスタッキングしてより良いaucスコアを得るのが好きです。

+0

複数のベースエスティメータをスタックまたはブレンドする場合は、github:[スタック全般](https://github.com/andreashsieh/stacked_generalization)でこのモジュールをチェックアウトできます。このモジュールはdustinstansburyによって開発されたもので、コードをうまく機能させるためにパッチを作成しました。 –

+0

私は回帰のためにadaboostを使用しているので、このモジュールは私を助けないかもしれません – modkzs

+0

@AndreasHsieh:どのように異なるアルゴリズムを積み重ねますか? – Alex

関連する問題