NULL以外の値を含む列を選択したいとします。私は、テーブルABCがあるとします。Spark SQL- Spark SQLでNULL以外の列を動的に選択
SnapshotDate CreationDate Country Region CloseDate Probability BookingAmount RevenueAmount SnapshotDate1 CreationDate1 CloseDate1
null null null null null 25 882000 0 null null null
null null null null null 25 882000 0 null null null
null null null null null 0 882000 0 null null null
null null null null null 0 882000 0 null null null
null null null null null 0 882000 0 null null null
null null null null null 0 882000 0 null null null
null null null null null 0 882000 0 null null null
null null null null null 0 882000 0 null null null
null null null null null 0 882000 0 null null null
null null null null null 0 882000 0 null null null
null null null null null 0 882000 0 null null null
null null null null null 0 882000 0 null null null
null null null null null 0 882000 0 null null null
null null null null null 0 882000 0 null null null
null null null null null 0 882000 0 null null null
null null null null null 0 882000 0 null null null
null null null null null 0 882000 0 null null null
null null null null null 0 882000 0 null null null
null null null null null 0 882000 0 null null null
null null null null null 0 882000 0 null null null
それから私は、彼らがnull以外の値が含まれているとしてのみ確率、BookingAmountとRevenueAmount列を選択し、唯一のnull値を含む列の残りの部分を無視したいと思います。
私はSnapshotDate!= nullとCreationDate!= nullと..... select *からabcを選択しました。 しかし、それは各行を探すために役立ちません。
注: - sqlContext.sql(「COL1がnullのときにそれをエンドを選択し、他のそれを選択いけないケースを選択)ABCからのX」)
私は火花1.6.1
を使用しています - のようなものがありますこれを行う方法はありますか?私は右のあなたを理解している場合は
select Probability, BookingAmount,RevenueAmount from abc
ようなものが必要事前
非ヌル値の最初の行のチェックを収集して、列の名前を取得し、前のデータフレームで呼び出しを選択することができます。 Done –
[Spark SQLのNULLカラムを削除する](https://stackoverflow.com/questions/45324762/remove-null-columns-in-spark-sql)の可能な複製 –