"または"を使用してデータフレームをフィルタリングするとエラーが発生します。Sparkで "or"を使用する
df.select("InvoiceNo","Description").where((col("InvoiceNo") !== 536365) || (col("UnitPrice") > 600))
私が使用して「または」も同じエラーを取得しようとした: は、以下のコードです。
df.select("InvoiceNo","Description").where((col("InvoiceNo") !== 536365).or(col("UnitPrice") > 600))
エラー:
org.apache.spark.sql.AnalysisException: cannot resolve 'UnitPrice' given input columns: [InvoiceNo, Description]
私が間違っているだろうか? Plsヘルプ。
説明と解決に感謝します。出来た – Jayson