2016-10-13 4 views
0

私は分類の焦点を当てた多くの論文を読んでおり、そのほとんどはAUC-このような不均衡問題..での作業はhereから引用する場合:scikit-learnのAUC-ROC/AUC-PRの平均化は、通常、分類器を比較するときに論文に使用されます

偽陽性の数で多数の変更は、ROC解析で使用される偽陽性率の小さな変化につながることができます。一方、精度は、真のネガティブではなく真陽性と偽陽性を比較することによって、アルゴリズムの性能に関する多数の否定的な例の効果を捕捉する。

しかし、私はscikit-learnのどの平均化がそのような紙の使用を表しているのかよくわかりません。マクロ平均か加重ですか?

答えて

0

これは良い質問です。 バイナリの問題設定では、クラスの不均衡がAUCスコアに影響を与えません(AUCはしばしば好ましいメトリックです)。

ただし、マルチクラス設定の場合は、使用するメトリックの種類を明記する必要があります。 scikit-learnのデフォルト実装はマクロ平均です。私はそれが理由のためのデフォルトであると推測します。

+0

AUCによって、AUC-ROCまたはAUC-PRを参照するか、不均衡が両方に影響しませんか? – Ophilia

+0

私は両方を意味していましたが、この[ペーパー](http://pages.cs.wisc.edu/~jdavis/davisgoadrichcamera2.pdf)によると、AUC-PRは不均衡なクラス分布に対処することができます。 – Archie

関連する問題