0
Sparkのディストリビューションに付属するSparkPiの例では、RDD上にreduce
があります(各スライスは合計を計算します)。Spark SparkPiの例
val count: Int = spark.sparkContext.parallelize(1 until n, slices).map { i =>
val x = random * 2 - 1
val y = random * 2 - 1
if (x*x + y*y < 1) 1 else 0
}.reduce(_ + _)
Cool!だから、「スマート」にして、 '' 'reduce''を使うのではなく、各エグゼキュータの小計を計算するためにクロージャを送る必要はありません。私はそれが好きです、ただスパークを信用する必要があります:-) – Frank