私のデータはspark
dataframe
(df)で24個のフィーチャを持ち、25番目のカラムはターゲット変数です。私はこのdataset
に私のモデルを適合させ、org.nd4j.linalg.api.ndarray.INDArray, org.nd4j.linalg.dataset.Dataset
またはorg.nd4j.linalg.dataset.api.iterator.DataSetIterator
という形で入力します。 dataframe
を必要なタイプに変換するにはどうすればよいですか?Spark DataframeをDeepLearning4Jモデルに入力
また、モデルに直接sparkデータフレームを入力するためにPipelineメソッドを使用しようとしました。しかし、dl4j-spark-mlのsbt依存性は機能しません。私のbuild.sbtファイルは
scalaVersion := "2.11.8"
libraryDependencies += "org.deeplearning4j" %% "dl4j-spark-ml" % "0.8.0_spark_2-SNAPSHOT"
libraryDependencies += "org.deeplearning4j" % "deeplearning4j-core" % "0.8.0"
libraryDependencies += "org.nd4j" % "nd4j" % "0.8.0"
libraryDependencies += "org.nd4j" % "nd4j-native-platform" % "0.8.0"
libraryDependencies += "org.nd4j" % "nd4j-backends" % "0.8.0"
libraryDependencies += "org.apache.spark" %% "spark-core" % "2.0.1"
libraryDependencies += "org.apache.spark" %% "spark-sql" % "2.0.1"
ここから私を導くことができますか?前もって感謝します。
私は、 "" org.deeplearning4j "%%" dl4j-spark-ml "%" 0.8.0_spark_2-SNAPSHOT "'を使ってみました。しかし、まだ動作していません。完全なbuild.sbtファイルで質問を編集しました。一度確認してください。 – Ishan
私は0.8と言っています* 1 *私はもっと明示してください: https://oss.sonatype.org/内容/再positories/snapshots/org/deeplearning4j/dl4j-spark-ml_2.11/0.8.1_spark_2-SNAPSHOT /これは間違いありません。どんな問題にも取り組んではいけません。 ^^^ –
"resolvers + =" scala-tools.org "を" https://oss.sonatype.org/content/repositories/snapshots/ "で使用して動作させる必要がありました。情報ありがとう。しかし、私が望むのは、org.deeplearning4j.spark.ml.classification.NeuralNetworkClassificationを使用することですが、このクラスは利用できないようです。あなたはそれについて考えていますか?私が望むのは、sparkデータフレームをdl4jモデルに入力することだけです。 – Ishan