ScalaとSparkを初めて使用しています。私は、次のワードカウントプログラム用のJUnitを記述する必要があります。ScalaコードのJUnitテストを書く必要があります
import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._
import org.apache.spark._
object SparkWordCount {
def main(args: Array[String]) {
meth()
}
def meth() {
//Spark Config object having cluster information
val sparkConfig = new SparkConf()
.setAppName("SparkWordCount")
.setMaster("local")
val sc = new SparkContext(sparkConfig)
val input = sc.textFile("C:\\SparkW\\input\\inp.txt")
val count = input.flatMap(line ⇒ line.split(" "))
.map(word ⇒ (word, 1))
.reduceByKey(_ + _)
count.saveAsTextFile("outfile")
System.out.println("OK");
}
}
私はこの使用してJUnitのためのテストを書くにはどうすればよいですか?
Sparkのドキュメントを見て、どのようにテストしたらよいか見てから、何を試しましたか? – cchantep
お読みください:https://meta.stackoverflow.com/questions/284236/why-is-can-someone-help-me-not-an-actual-question ... **あなた**あなたの思考を入れて開始します/現在のコード。問題を解決するのに役立ちます。私たちはあなたのためにその最初のステップをしません。 – GhostCat
Javaに精通している場合は、必要に応じてJavaからScalaコードをテストできます。 – stefanobaghino