私はSparkとScalaが比較的新しいです。RDD [org.apache.spark.sql.Row]からRDD [org.apache.spark.mllib.linalg.Vector]への変換
Iは、次のデータフレーム(ダブルスの密ベクトルから作られた単一の列)で始まる午前:RDDへ
scala> val scaledDataOnly_pruned = scaledDataOnly.select("features")
scaledDataOnly_pruned: org.apache.spark.sql.DataFrame = [features: vector]
scala> scaledDataOnly_pruned.show(5)
+--------------------+
| features|
+--------------------+
|[-0.0948337274182...|
|[-0.0948337274182...|
|[-0.0948337274182...|
|[-0.0948337274182...|
|[-0.0948337274182...|
+--------------------+
直変換する[org.apache.spark.rdd.RDDのインスタンスを生成org.apache.spark.sql.Row]:
scala> val scaledDataOnly_rdd = scaledDataOnly_pruned.rdd
scaledDataOnly_rdd: org.apache.spark.rdd.RDD[org.apache.spark.sql.Row] = MapPartitionsRDD[32] at rdd at <console>:66
誰もがorg.apache.spark.rdd.RDD [org.apache.spark.mllib.linalgのインスタンスに、このDFを変換する方法を知っています。ベクトル]代わりに?私のいろいろな試みはこれまでに失敗しています。
ありがとうございました!