1
evaluator = BinaryClassificationEvaluator()
grid = ParamGridBuilder().build() # no hyper parameter optimization
cv = CrossValidator(estimator=pipeline, estimatorParamMaps=grid, evaluator=evaluator)
cvModel = cv.fit(dataset)
evaluator.evaluate(cvModel.transform(dataset))
戻り値:pysparkのBinaryClassificationEvaluator avgMetricsが1より大きな値を返すのはなぜですか?
cvModel.avgMetrics = [1.602872634746238]
evaluator.evaluate(cvModel.transform(dataset)) = 0.7267754950388204
質問:それはROCの下の領域であれば
- どうavgMetricは1(1.6)よりも大きくすることができますか?
- スキーマevaluator.evaluate(cvModel.transform(dataset))は、実際にトレーニングメトリックを返しますが、クロス検証メトリックは返しませんか? (適合と評価の両方に
dataset
を使用しました)
ありがとうございました。第2弾にお答えください。 schemato evaluator.evaluate(cvModel.transform(dataset))は実際にクロスバリデーションメトリックではなくトレーニングメトリックを返しますか? (フィットと評価の両方にデータセットを使用しました) –
私の編集をご覧ください。列車/検証のためにデータセットを使用すべきではありません。 – ShuaiYuan
* same * dataset :) – ShuaiYuan