-2

アンサンブルの方法を学びたいと思っています。ランダムフォレストなどの通常の機械学習方法の上に構築することができます。この方法は、より正確な分類モデルを構築するために、トレーニングセット内の誤分類データを使用することができる。Rでアンサンブル法としてada boostingを使う方法は?

しかし、私はオンラインで検索しましたが、実装の回答が見つかりませんでした。

エラーを最小限に抑えるために、分類問題のランダムフォレストの上にada-boostingを構築する方法を知りたいですか?電車

テストセット(DF):テスト

と呼ばれる機能の数:フィーチャー

はちょうど私が

トレーニングセット(DF)を持っているとしましょう。

と分類子が呼び出されます。アウトカム(電車$アウトカム)

私の通常のモデルは、(キャレットパッケージを使用して仮定して)次のようになります。

mymodel_rf < -train(電車[、成果]、トレイン[、特徴]、メソッド= "rf"、trControl = ...)

次に進む方法は?この結果を利用してADAブースティング法を構築するには?

+0

ランダムなフォレストとアドバストは異なるアンサンブルメソッドです。しかし、ちょっとした話では、データポイントに重み付けをして更新しています。重みを更新するための数学が必要です。 これらのリンクをクリックすると、アルゴリズムの実装方法を知ることができます。 https://courses.cs.washington.edu/courses/cse446/17wi/slides/boosting-kNNclassification-annotated.pdf https:// courses。 cs.washington.edu/courses/cse546/13au/slides/decision-trees-annotated.pdf – frank

+0

私はada-boostingの通常の実装を探していません。私は2つのアルゴリズムのアンサンブルを探しています。ナッツの殻の中で、私はランダムな森林からの結果をどのようにして餌を増やすのかを知りたいのです。 (私の場合はランダムなフォレストです)、誤って分類されたデータをランダムフォレストからada-boostingにどのように渡すべきかを知りたいと思います。 –

+0

2秒のグーグルでこのチュートリアルを読んでください:https://cran.r-project.org/web/packages/caretEnsemble/vignettes/caretEnsemble-intro.html – Zephro

答えて

0

「あなたの上に」とは何を意味するのか分かりませんが、RFはいくつかの結果をもたらし、Adaboostはいくつかの結果を提供します。これら2つをアンサンブルしたい場合は、結果の統計モードを取得するだけです。

いずれにしても、AdaboostとRandom Forestは両方ともアンサンブル手法です。この技術は、多数の弱い分類器を構築し、それらを平均またはモードを取ることによって強力な分類器に組み合わせることである。

関連する問題