私はApacheのスパークを学び始めたばかりで、これがなぜ私にとってうまくいかないのか知りたかったのです。Spark Cluster:各ワーカーノードでRDDの内容を印刷するには
私はspark 2.1を実行していて、マスターとワーカー(ローカルではない)を開始しました。このコードは、
object SimpleApp {
def main(args: Array[String]) {
val file = [FILELOCATION]
val conf = new SparkConf().setAppName("Simple Application")
val sc = new SparkContext(conf)
val textFile = sc.textFile(file)
val counts = textFile.flatMap(line => line.split(" "))
.map(word => (word.toLowerCase.toCharArray.toList.sorted.mkString, 1))
.reduceByKey(_ + _)
counts.map(println)
counts.foreach(println)
val countCollect = counts.collect()
sc.stop()
}
}
私はstdoutで内容を表示することはできません。私がマスターと労働者を地元にしても、それはうまくいかないようです。
ここで何か間違っていますか?
どのようにジョブを実行していますか? IDEまたは 'spark-submit'を介して? –
私はspark-submit – xkor
で実行していますが、エグゼキュータのログをチェックしましたか? – banjara