2017-07-19 11 views
0

私はMaven依存関係spark-sql_2.1.0spark-hive_2.1.0を持っています。しかし、私がimport org.apache.spark.sql.DataFrameにしようとすると、エラーが発生します。しかし、 org.apache.spark.sql.SQLContextのインポートはOKですが、エラーはありません。どうして?なぜ私はorg.apache.spark.sql.DataFrameをインポートできません

+0

どのようなエラーが表示されますか?これは私のためにうまく動作します –

+0

どのような言語を使いますか? –

+0

@T.Gawęda私はJavaを使用しています –

答えて

4

DataFrameはtype DataFrame = Dataset[Row]になりました。 Javaにはタイプエイリアスがないため、Javaでは使用できません。これで、新しいタイプDataset<Row>を使用するので、javaために開発された全くのライブラリが存在しないようjavaためscalaとないの両方org.apache.spark.sql.Datasetorg.apache.spark.sql.Row

+0

DataFrame、sqlContext.read()があればどうしたらいいですか? –

+0

@JasonShu Just 'Dataset dataset = sqlContext.read() –

+0

@JasonShuまた、Spark 2.xでSparkSessionを使用する必要があります:) –

0
import org.apache.spark.sql.DataFrame 

作品をインポートする必要があります。あなたは、次の

import org.apache.spark.sql.Dataset; 
import org.apache.spark.sql.Row; 

をインポートし、

Dataset<Row> peopleDataFrame = spark.createDataFrame(rowRDD, schema); 

それとも

Dataset<Row> peopleDF = spark.createDataFrame(peopleRDD, Person.class); 

それとも

としてそれらを使用することができます Spark SQL, DataFrames and Datasets Guide

で説明したようにあなたはdataSetを使用することができます10

Dataset<Row> usersDF = spark.read().load("examples/src/main/resources/users.parquet"); 
+0

それは本当です。しかし、私はDataFrame、例えば、sqlContext.read()を持っています。どうすればいいですか? –

+0

'Dataset df = sqlContext.read.csv(" location ")'を使うことができます。 :)それはうまくいくはずです。試しましたか ? –

+0

はい、それは動作しますが、sqlContext.read.jsonについては失敗しました。 –

関連する問題