Spark Structured Streamingで複数の集計を行いたいとします。Spark Structured Streamingでの複数の集計
このような何か:
- を(フォルダから)入力ファイルのストリームを読む
- (一部の変換で)集合1を実行
- 集約2(および複数の変換)を実行
これを構造化ストリーミングで実行すると、「複数のストリーミング集約がストリーミングデータフレーム/データセットでサポートされていません」というエラーが表示されます。
ストラクチャードストリーミングでこのような複数の集計を行う方法はありますか?
低レベルの 'DStream'抽象化を試しましたか? –
私は、構造化ストリーミング(データセット/データフレーム)を使用したいと考えていました。 DStreamで同様のことが行われているいくつかの例を教えてください。 – Kaptrain