Java実装にPysparkアプリケーションを書き始めました。私はJava 8を使用しています。私はちょうどjavaで基本的なspark progrmaのいくつかを実行し始めました。私は以下の例を使用しましたwordcount例。私はGoogleで検索すると、私はlines.flatMap(line -> Arrays.asList(line.split(" ")))
でType mismatch: cannot convert from JavaRDD<Object> to JavaRDD<String>
エラーを取得していますsparkタイプが一致しません:JavaRDD <Object>からJavaRDDに変換できません<String>
SparkConf conf = new SparkConf().setMaster("local").setAppName("Work Count App");
// Create a Java version of the Spark Context from the configuration
JavaSparkContext sc = new JavaSparkContext(conf);
JavaRDD<String> lines = sc.textFile(filename);
JavaPairRDD<String, Integer> counts = lines.flatMap(line -> Arrays.asList(line.split(" ")))
.mapToPair(word -> new Tuple2(word, 1))
.reduceByKey((x, y) -> (Integer) x + (Integer) y)
.sortByKey();
、すべてのJavaベースの8スパークの例では、私は同じ上記implementation.Whatが私のenvironemntまたはプログラムに間違っていた見ました。
誰かが私を助けることができますか?
'' JavaSparkContext'インスタンスをsc'です。 – Ravikumar
@Ravikumar、はい、JavaSparkContextです。 – Backtrack