2017-09-09 10 views
1

SparkデータフレームをscalaのArray [String]に変換する方法を教えてください。spark dataframeをArray [String]に変換する

私は以下を使用しました。

x =df.select(columns.head, columns.tail: _*).collect() 

上記のスニペットは答えがcricket_007というユーザーから提供された私のアレイ[行]としませアレイ[文字列]

+1

'の.map {行=> row.toString()} '?? –

+0

お返事ありがとうございます。それはwork.Canを使用するかどうかを私たちに教えてもらえますか?私たちがそれを印刷するときにブラケット "["と "]"を取り除いてください。map {row => row.toString().mkString( "、")} – Bharath

+0

mkStringは配列から文字列を作成します...これはScalaの知識です。どのように配列をJavaまたはPythonで刺すようにしますか?私の指摘は、あなたの質問/問題は完全にSparkの外にあります。 –

答えて

1

これはトリックを行う必要があります:あなたは、[文字列]配列への配列[行]を変換するには、以下を使用することができます

df.select(columns: _*).collect.map(_.toSeq) 
0

を与えます。

x =df.select(columns.head, columns.tail: _*).collect().map { row => row.toString() } 

おかげで、 バーラト

+0

DataFrameの 'collect()'はしばしばあなたの使い方ではありません。むしろ、あなたはそれを 'show()'します –

関連する問題