Spark 2.0を使用すると、行のデータフレームをケースクラスのデータフレームに変換することができます。私がそうしようとすると、Imはspark.implicits._
を輸入する旨のメッセージで挨拶しました。私が持っている問題は、Intellijが有効なインポートステートメントであると認識していないことです。移動してメッセージが更新されていないか、またはビルド設定に正しいパッケージがないspark.implicits
と呼ばれる全くパッケージはありません私のbuild.sbt
Spark 2.0 spark implicitsがありません
libraryDependencies ++= Seq(
"org.mongodb.spark" % "mongo-spark-connector_2.11" % "2.0.0-rc0",
"org.apache.spark" % "spark-core_2.11" % "2.0.0",
"org.apache.spark" % "spark-sql_2.11" % "2.0.0"
)
RDDを 'import spark.implicits._'なしでDadaFrameに変換するにはどうしたらいいですか?私は '.toDF'メソッドのようなものが必要ですが、' spark.implicits'がなければ –
Rdd [行]があれば、spark.createDataFrame(rdd)を実行できます。 –