現在、私たちはSpark 2.0について取り組んでおり、スパークトレーニング中にどのように喪失関数の勾配が変更されたかを知りたいので、訓練プロセスを視覚化するために使用できます。 例えば、私は次のコードを持っている:spark 2.0を使ったトレーニング中に損失関数の勾配を得る方法はありますか?
// Load training data in LIBSVM format.
val data = MLUtils.loadLibSVMFile(sc, "data/mllib/sample_libsvm_data.txt")
// Split data into training (60%) and test (40%).
val splits = data.randomSplit(Array(0.6, 0.4), seed = 11L)
val training = splits(0).cache()
val test = splits(1)
// Run training algorithm to build the model
val model = new LogisticRegressionWithLBFGS()
.setNumClasses(10)
.run(training)
を、私はパッケージの下にいくつかのクラスがあります知っている「org.apache.spark.mllib.evaluation」モデルからいくつかの指標を取得するために使用することができますが、I訓練プロセス中に損失関数の勾配がどのように変化したかをまだ知ることができない。
解決方法はありますか?
あなたが言ったように、LogisticRegressionだけが損失関数を取得するようにサポートしていますが、KMeans、DecisionTreeなどの他のすべてのトレーニングメソッドにサマリー関数を提供する計画があるかどうかは疑問です。 –