私はSparkを初めて使用していますが、Spark Datasetから無効なレコードをフィルタリングしようとしています。 私のデータセットは、このようなものになります。私のロジックでスカラのカスタム関数を使用したSparkデータセット
| Id | Curr| Col3 |
| 1 | USD | 1111 |
| 2 | CNY | 2222 |
| 3 | USD | 3333 |
| 1 | CNY | 4444 |
を、各IDはvaild通貨を持っています。だから、基本的にid->currency
val map = Map(1 -> "USD", 2 -> "CNY")
のマップになります私は、Idが有効な通貨コードに対応していないデータセットから行をフィルタします。だから私のフィルタ操作の後に、データセットは、次のようになります。
| Id | Curr| Col3 |
| 1 | USD | 1111 |
| 2 | CNY | 2222 |
私がここに持っている制限は、私がUDFを使用することができないということです。 誰かがこのためのフィルタ操作を考え出すのに手伝ってもらえますか?
たぶん私の質問は十分に明確ではありませんでした。データセットに有効なIDがあり、無効な通貨コードの行がある可能性があります。 Like(1、CNY、333)。この場合、そのようなエントリも削除したいと思います。私はこの事件を反映するために質問を更新します。 –
「Id」と通貨が同時に一致しますか? – Psidom
はい、私は基本的に、有効な 'Id'と' Currency'情報を持つ行だけを残したいと思っています。不一致の 'Id'と' Currency'カラムを持つ行は削除する必要があります。 –