2016-12-07 11 views
0

私はちょうどたいが、どのようなroc_auc_scoreの違いは?

roc_auc_score(y_test,results.predict(X_test)) 

roc_auc_score(y_test,results.predict_proba(X_test)[:,1]) 

の違いはあるが、私は後者の方が、それぞれの試験観測のためにクラス0の確率を返してもroc_curveをプロットするには知っているpredict_probaを明確化() 使用すべきです。しかし、ROCのバイナリ分類モデルのパフォーマンスをチェックする正しい方法は何ですか?私は現在のものを使っています。後者の意味は何ですか?

答えて

0

もう1つは正しいです。
ROC AUCはランク付けに関心があるため、予測はランク付けする必要があります。

+0

しかし、プロジェクトで0.75のROCを返した2番目のモデルを使用した場合、クラス1に比べてデータセットに豊富なゼロにすべてのテストケースを分類していることがわかりました。一方、0.5を返したROCを計算するために最初のものを使用しました。これは、モデルがすべてのテスト観察のためにただ1つのクラス値を返す場合には妥当と思われた。 – LUSAQX