decision-tree

    0

    1答えて

    意思決定ツリーがrpartであるとします。すべての条件を記述せずにノード内のすべてのデータポイントを取得するにはどうすればよいですか? たとえば、すべての分割にelseを書くのではなく、ノード3に17個のデータポイントを得るにはどうすればよいですか? library(rpart) library(partykit) fit=rpart(factor(am)~.,mtcars,control=r

    1

    1答えて

    問題設定:データの98%がクラスAに属し、2%がクラスBに属している不均衡なデータセットを持っています。私は、class_weightsを使用してDecisionTreeClassifier(sklearnから)以下の設定を使用してください: dtc_settings = { 'criterion': 'entropy', 'min_samples_split': 100,

    1

    1答えて

    tree jsonの構文解析hereと同様に、私はscalaの決定木の簡単な可視化を実装しようとしています。これは、databricksノートブックで使用できる表示方法とまったく同じです。 私はスケーラには新しく、論理を正しく理解するのに苦労しています。最終的な予測値が表示されたときに子を構築して中断するために再帰呼び出しを行う必要があることは理解しています。私はここに下記の入力モデルのデバッグ文

    0

    1答えて

    のchildren_left属性を解釈する方法sklearn DecisionTreeClassifierの 'tree_'メソッドを使用して最も深いノードの規則を抽出しようとしています。私は、 'children_left'と 'children_right'の配列がモデルから何を意味しているのかを理解するのに苦労しています。誰でも説明できる? Sklearnの例では estimator = D

    0

    1答えて

    決定木の場合に特定の予測に最も寄与する変数を見つけるにはどうすればよいですか?たとえば。特徴A、B、C、D、Eがある場合、我々はデータセットの上に決定木を構築する。次に、サンプルxについて、変数C、Dが予測(x)に最も寄与すると言うことができます。 H2Oの予測(x)に最も貢献した変数を見つける方法私はH2Oが決定木が構築されると、変数のグローバルな重要性を与えていることを知っています。私の質問は

    0

    2答えて

    データセットに私のモデルを訓練しました。私はモデルを訓練するために意思決定ツリーを使用しました.3つの出力クラス - はい、完了、いいえがあります。分類器の特徴の重要性をチェックすることによって決定を下す最も決定的な特徴を知ることができる。私は私のMLライブラリとしてpythonとsklearnを使用しています。今私は最も決定的な特徴を見つけたので、その特徴がどのように寄与しているか知りたいのです

    1

    1答えて

    私はかなりdecision treesに新しく、分岐を下ったときにそれらを解釈するのに少し問題があります。応答変数は、年齢、運賃、兄弟姉妹の数、および私が以下の決定木を付けた親の数によって予測される、Survived(Yes/No)です。 KaggleのTitanicデータセット。 グリーン/ブルーの色はどういう意味ですか? 葉ノードをどのように解釈すればよいですか? 私は38%が生き残るために非

    0

    1答えて

    私はC4.5を実装しています。私の計算では、情報利得の負の値を取得しています。私はWhy am I getting a negative information gainを読むが、私のissiue seeamsは異なっている。私は、Excelに私の計算をパットと私は以下のように同じ結果を得る:私は間違って何をやっている My calculations を? 私は再びそれを計算してみました、そして下

    0

    1答えて

    私は意思決定ツリーalghoritmを使用してMicrosoft BIデータマイニングを行ってきました。私はすでに結果を生み出すために必要なステップを知っています。しかし、一部のデータでは、処理の最後に「決定木がモデルに分割されていない」と表示され、結果として意思決定ツリーが生成されません。 原因を検出できませんでした。明らかにそれはms製品なので、ソースコードを見て、警告がトリガーされたときには