を使用してRDDを作成することはできません我々ははなぜ我々はスパークセッションに
Spark context available as 'sc'.
Spark session available as 'spark'.
は、私がもしそうなら、なぜ我々はできません...スパークセッションは、コンテキスト、ハイブコンテキストをストリーミング、スパークコンテキストを含んで読んで、ことを確認しますスパーク・コンテキストの代わりにスパーク・セッションを使用してrddを作成します。
scala> val a = sc.textFile("Sample.txt")
17/02/17 16:16:14 WARN util.SizeEstimator: Failed to check whether UseCompressedOops is set; assuming yes
a: org.apache.spark.rdd.RDD[String] = Sample.txt MapPartitionsRDD[1] at textFile at <console>:24
scala> val a = spark.textFile("Sample.txt")
<console>:23: error: value textFile is not a member of org.apache.spark.sql.SparkSession
val a = spark.textFile("Sample.txt")
上記のように、sc.textFile
はRDDなくspark.textFile
の作成に成功しました。
これは正解です。 – chhantyal