0
私はちょうどたいが、どのようなroc_auc_scoreの違いは?
roc_auc_score(y_test,results.predict(X_test))
と
roc_auc_score(y_test,results.predict_proba(X_test)[:,1])
の違いはあるが、私は後者の方が、それぞれの試験観測のためにクラス0の確率を返してもroc_curveをプロットするには知っているpredict_probaを明確化() 使用すべきです。しかし、ROCのバイナリ分類モデルのパフォーマンスをチェックする正しい方法は何ですか?私は現在のものを使っています。後者の意味は何ですか?
しかし、プロジェクトで0.75のROCを返した2番目のモデルを使用した場合、クラス1に比べてデータセットに豊富なゼロにすべてのテストケースを分類していることがわかりました。一方、0.5を返したROCを計算するために最初のものを使用しました。これは、モデルがすべてのテスト観察のためにただ1つのクラス値を返す場合には妥当と思われた。 – LUSAQX