2017-09-05 1 views
-3

私は多次元Yを使用する必要があるMLの問題に取り組みました。現在、この出力の各次元で独立したモデルを訓練していますが、実際の出力からの追加情報を活用していません。scikit-learnのDecisionTreeRegressorは真のマルチ出力回帰を行いますか?

多次元出力を処理するために真に拡張されたいくつかのMLアルゴリズムについては、thisを読んでいます。意思決定ツリーはその1つです。

イベントフィット(X、Y)に多次元Yが指定されている場合、または各ディメンションごとに別のツリーに収まるかどうかにかかわらず、scikit-learnは「マルチターゲット回帰ツリー」を使用しますか?私はcodeを見てしばらく時間を費やしましたが、それを理解しませんでした。

+0

http://scikit-learn.org/stable/modules/multiclass.html –

+0

これは私の質問には答えません。 MultiOutputRegressorは、ターゲットごとに1つの回帰分析を組み込むことで構成されています。各ターゲットは正確に1つの回帰分析によって表されるため、対応する回帰分析を調べることでターゲットについての知識を得ることができます。 1つのターゲットにつき1つの退行者は、ターゲット間の相関を利用することはできません。 DecisionTreeRegressorがこれらの行に沿って何かを行う場合、実際にはすべてのディメンションを使用して分割を決定するのとは大きく異なります。 – pvlkmrv

+0

あなたの質問に答えます。ドキュメントとソースコードを読んでください。退行者は、基底クラスからの分類子と同じ動作を継承します。 –

答えて

0

さらに掘り下げた後、多次元ラベルを持つ与えられた点と1次元のYでラベル付けされた点の木の間の唯一の違いは、分割を決定するために使用するCriterionオブジェクトにあります。 A Criterionは多次元ラベルを扱うことができるので、DecisionTreeRegressorをフィッティングした結果は、Yの次元に関係なく単一の回帰ツリーになります。

これは、scikit-learnが本当のマルチターゲット回帰ツリーこれは相関出力を有効に活用することができます。

関連する問題