pythonで実装されたadaboostアルゴリズムはどのように機能の割り当てを各機能に割り当てるのですか?私は機能の選択にそれを使用しており、私のモデルはfeature_importance_の値に基づいて機能の選択を適用する方が優れています。scikit adaboost feature_importance_
1
A
答えて
1
feature_importances_
は、ベース分類器が決定木である場合にsklearnのアドバウトアルゴリズムに使用できる属性です。どのようにfeature_importances_
がadaboostアルゴリズムで計算されるのかを理解するには、まず、それが決定木分類子の計算方法を理解する必要があります。
ディシジョン・ツリーの分類子:
feature_importances_
は、あなたが選択した基準を分離するものによって異なります。分割基準が「エントロピー」に設定されている場合: feature_importances_
は、各フィーチャの情報ゲインに相当します。 Here is a tutorial各フィーチャの情報ゲインの計算方法(特にスライド7)。分割基準を変更すると、feature_importances_
は情報利得と同等ではなくなりますが、計算に使用する手順はスライド7での手順と似ています(エントロピーの代わりに新しい分割基準を使用)。
アンサンブル分類器:
は、今度はそれがアダブーストアルゴリズムで決定される方法のあなたの元の質問に戻りましょう。 According to the docs:
の機能の重要性を平均化することにより、決定木のアンサンブルに拡張することができます重要性のこの概念は、単に各ツリー
関連する問題
- 1. Adaboostで使用される決定関数の定義(式)はscikit-learn
- 2. scikit-learnで異なる基礎推定量でadaboostを使用するには?
- 3. OpenCVとSciKitで同等のバージョンのAdaboostを実装する方法は?
- 4. Feature importances - bagging、scikit-learn
- 5. Adaboostを使ったデシジョンツリー/スタンプ
- 6. Viola Jones/AdaBoostの学習段階
- 7. Adaboostアルゴリズムの基本的な理解
- 8. scikitフィッティングデータエラー
- 9. Scikitは、インポートエラー
- 10. がscikit-学ぶ
- 11. scikit-learnのマルチレイヤパーセプトク
- 12. Scikit Image Marching Cubes
- 13. はscikit-学ぶ
- 14. Scikitデシジョンツリーカテゴリ機能
- 15. scikit-learn:preprocessing.scale()vs preprocessing.StandardScalar()
- 16. Scikit-learn confusion matrix
- 17. scikit-learn normalizer.fit()メモリエラー
- 18. Python Scikitランダムフォレストリグレッサーエラー
- 19. Scikit learn-Classification
- 20. Matlab WekaインターフェイスAdaBoostの問題:範囲外例外
- 21. Adaboostを使った特徴ベクトルのベストフィーチャの選択
- 22. Accord.NET AdaBoostはどこにありますか?
- 23. Javaで複数次元のAdaboostを実装する
- 24. Accord.net 3.8 AdaBoostの学習者の代理人
- 25. Adaboostの最も強力な代替手段は何ですか?
- 26. Scikitインストールを学ぶ
- 27. Scikit-学ぶパイプライン - トランス
- 28. scikit-learn(python)のバランスランダムフォレスト
- 29. scikit-surpriseでのインポートエラー
- 30. 編集scikit-learn decisionTree