非常に単純ですが、私はArray [Row]を持っており、データセット[Row]またはDataFrameに変換したいと思います。Spark(Scala):配列[行]をDataSet [行]またはDataFrameにするにはどうすればいいですか?
私はどのように行の配列を考えましたか?
まあ、私は私のデータセットからNULL値をクリアしようとしていた。
- なし.naを使用してせずに、各列(私はたくさんある)と...
- をフィルタリングすること.drop()関数からDataFrameNaFunctionsセルが実際に文字列 "null"を検出しないため、機能しません。
したがって、すべての列でnullを除外するために次の行を考えました。
問題は、outDFは配列[行]です。したがって、問題です。任意のアイデアを歓迎!
はこれが見えます。これは望ましい動作ですか? –
'na.drop(df.columns)' 'null' – mrsrinivas
' .where(df.columns.map(c => col(c)!== "null")文字列からwhere部分を抽出することができます。 .reduce(_ and _)) ' –