SparkデータフレームをscalaのArray [String]に変換する方法を教えてください。spark dataframeをArray [String]に変換する
私は以下を使用しました。
x =df.select(columns.head, columns.tail: _*).collect()
上記のスニペットは答えがcricket_007というユーザーから提供された私のアレイ[行]としませアレイ[文字列]
SparkデータフレームをscalaのArray [String]に変換する方法を教えてください。spark dataframeをArray [String]に変換する
私は以下を使用しました。
x =df.select(columns.head, columns.tail: _*).collect()
上記のスニペットは答えがcricket_007というユーザーから提供された私のアレイ[行]としませアレイ[文字列]
これはトリックを行う必要があります:あなたは、[文字列]配列への配列[行]を変換するには、以下を使用することができます
df.select(columns: _*).collect.map(_.toSeq)
を与えます。
x =df.select(columns.head, columns.tail: _*).collect().map { row => row.toString() }
おかげで、 バーラト
DataFrameの 'collect()'はしばしばあなたの使い方ではありません。むしろ、あなたはそれを 'show()'します –
'の.map {行=> row.toString()} '?? –
お返事ありがとうございます。それはwork.Canを使用するかどうかを私たちに教えてもらえますか?私たちがそれを印刷するときにブラケット "["と "]"を取り除いてください。map {row => row.toString().mkString( "、")} – Bharath
mkStringは配列から文字列を作成します...これはScalaの知識です。どのように配列をJavaまたはPythonで刺すようにしますか?私の指摘は、あなたの質問/問題は完全にSparkの外にあります。 –