2017-08-01 7 views
1

ロジスティック回帰のf1スコアが最も高い最適なしきい値を見つけようとしています。私は次の行書いたときしかし、:f1scoreのspark mllibのしきい値

val f1Score = metrics.fMeasureByThreshold 
f1Score.foreach { case (t, f) => 
println(s"Threshold: $t, F-score: $f, Beta = 1") 

をいくつかの奇妙な値は、例えば、出演:それは1よりも大きい閾値を有することが可能である方法

Threshold: 2.0939996826644833, F-score: 0.285648784961027, Beta = 1 
Threshold: 2.093727854652065, F-score: 0.28604171441668574, Beta = 1 
Threshold: 2.0904571465313113, F-score: 0.2864344637946838, Beta = 1 
Threshold: 2.0884466833553468, F-score: 0.28682703321878583, Beta = 1 
Threshold: 2.0882666552407283, F-score: 0.2872194228126431, Beta = 1 
Threshold: 2.0835997800203447, F-score: 0.2876116326997939, Beta = 1 
Threshold: 2.077892816382506, F-score: 0.28800366300366304, Beta = 1 

?コンソール出力にさらに表示される負の値についても同様です。

答えて

1

RDDに自分のデータフレームを変換するときに私の代わりに書いている、以前のミスを犯した。

val predictionAndLabels =predictions.select("probability", "labelIndex").rdd.map(x => (x(0).asInstanceOf[DenseVector](1), x(1).asInstanceOf[Double])) 

私が書いた:

val predictionAndLabels =predictions.select("rawPredictions", "labelIndex").rdd.map(x => (x(0).asInstanceOf[DenseVector](1), x(1).asInstanceOf[Double])) 

をので、しきい値がrawPredictionsない確率についてでした、すべてが今や意味をなさない

関連する問題