こんにちは、私はプロダクトlogerrorにランダムなフォレストクラシファイアを使用しています。ログエラーには、両方とも= ve & -veの値が含まれています。異なる設定で分類子を実行した後。私は約0.8のトレーニングテストのスコアを得ることができますが、テストのスコアは常に負です。どうしてこんなことに? 予測にabs(ログエラー)を使用する必要がありますか、またはランダムフォレストの選択に間違いがありますか?ランダムフォレストのネガティブテストスコア
-2
A
答えて
-1
私はあなたの質問を完全に理解していません。 「製品ログエラー」とは何ですか? "both = ve & -ve"とは何ですか? また、あなたのテスト得点が何であるかわからない。しかし、どういうわけかあなたはあなたがログを使うことに言及しました。 エラーが0〜1の場合、ログ(エラー)は負になります。 エラー= 1の場合は0 、エラーの場合は1より大きくなります。
0
ランダムフォレストの選択は間違っている可能性がありますが、ここでデータを共有しているかのようにデータのコンテキストで確認する方がよいでしょう。正確な時点であなたを助けてくれます。しかし、あなたの全体の観測が1000-2000程度であればKnnを試してみることをお勧めします。
また、カテゴリデータを公称値に変換するために任意の種類のエンコーディングを使用している場合は、他の値を属性として追加するだけでホットエンコーディングを使用してください。
テストデータのターゲット変数の相関が低いと、マイナスの結果になる可能性があるため、ターゲット変数との相関をチェックする必要があります。
上記以外のデータの配信は、ランダムフォレスト回帰において重要な役割を果たします。したがって、分布を調べて、box-coxなどのメソッドを適用して正規分布のデータを変換してみてください。
関連する問題
- 1. ランダムフォレスト:新
- 2. ランダムフォレストは
- 3. OpenCV - ランダムフォレストの例
- 4. sklearnのランダムフォレスト
- 5. ランダムフォレストのパラレル化
- 6. ランダムフォレストのサブセット
- 7. Rリニアリグレッションテールのランダムフォレスト
- 8. スパークのランダムフォレスト
- 9. sklearnランダムフォレストの精度
- 10. ランダムフォレストのbaggingとmax_feature
- 11. ランダムフォレスト評価 - numpyの
- 12. OnevsrestClassifierとランダムフォレスト
- 13. 加重ランダムフォレスト
- 14. ランダムフォレストとPython
- 15. グラディエントブーストとランダムフォレスト
- 16. ランダムフォレストためvarImp(キャレット)と重要性(ランダムフォレスト)との差
- 17. Tensorflow TFlearn - ランダムフォレスト回帰
- 18. ScikitLearnランダムフォレストのアンダーサンプリングとクラスウェイト
- 19. ランダムフォレストのハイパーパラメータチューニングScikit-Learn Using GridSearchCV
- 20. プロットの凡例ランダムフォレストr
- 21. Apache MLlibランダムフォレストの並列トレーニング
- 22. ランダムフォレスト決定の信頼?
- 23. ランダムフォレストの層別サンプリング-Python
- 24. Rランダムフォレストの処理Posix値
- 25. ランダムフォレスト変数の選択
- 26. ランダムフォレスト(パッケージレンジャー)のイメージ分類(ラスタスタック)
- 27. マルチクラス決定フォレストとランダムフォレスト
- 28. モデルは、ランダムフォレスト回帰pyspark ml
- 29. ランダムフォレストを分類に設定
- 30. ランダムフォレスト - 詳細と速度