現在、Apache FlinkでETLを処理しようとしています。このプロジェクトでは、CityName
からCityID
に変換するためにディメンションテーブルを照会する必要があるいくつかの手順があります。以下のようなプロジェクト構造:現時点ではApache Flinkで静的テーブルを永続化する方法はありますか
Project---------------------
|
---- Company ETL (CityName column map to CityId)
|
---- Employee ETL (CityName column map to CityId)
は、各ストリームのために、私たちの方法は、ディメンション表がありますMySQLの上のJDBCクエリアクションを呼び出すことです。これは効果的な方法ではありません。私は内部でFlinkのディメンションテーブルの内容をプロジェクト全体で使用できるようにする方法があるかどうか尋ねたいと思います。
FlinkのバッチまたはストリーミングAPIを使用しますか?この変換テーブルのサイズはどれくらいですか? –
私はStreaming APIを使用してデータを転送しています。変換テーブルは10,000レコードです。通常、データは毎月変更されます。現在、私はちょうど変換テーブルからのデータを格納するためにJava最終静的マップを使用します。 @アルパインギズモ – camash