2017-01-25 8 views
0

私がパラメータclass_weightを使用するとき、scikit-learnがクラスに重点を置く方法を知りたいのですが、それは少数サンプリングのオーバーサンプリングですか?scikit-learnでのclass_weight強調の方法

ありがとうございました。

答えて

0

どちらもありません。私は代わりに損失に影響を及ぼすと思う:

  • より高い重量のクラスのためのより高い損失。
  • 低体重クラスの方が低損失です。

この問題は、このthreadで詳細に説明されています。

+0

これは一般に当てはまります。しかし、私はそれが実際にどのように行われているのかという疑問はあると思いますか? – AndreyF

+0

はい、質問は、それが過半数のクラスをどのように不利にするかです。 – Peter

0

すべてのアルゴリズムでclass_weightを処理する単一の方法があるかどうかはわかりません。

ディシジョンツリー(およびフォレスト)は、各サンプルの重みをクラスに応じて変更することで対応します。

オーバーサンプリングのより一般的なケースとしてサンプルを重み付けすることが考えられます。すべて少数派のサンプル(サンプルの一部を「オーバーサンプルする」ことができます)。

関連する問題