私はConnect APIのKafkaドキュメントを読んで、問題のドメインに関連付けることを試みていました。私はすべての更新/挿入/削除で同期する必要がある共通のテーブルを持つ複数のデータベースがあります。 exmapleはこれです:データベーステーブルを同期させるためのApache Kafka Connect/Streams API
1)誰かがDB1でテーブル「order_history」を更新 - 私は
2)誰かが「PURCHASE_ORDER」にレコードを挿入、更新はDB2/DB3などに伝達することにしたい - 私が欲しいですDB2/DB3などと同じ挿入が行われるようにインサートをDB2/DB3などに伝えることができます。
3)テーブルはすべてのデータベースにあります。
これらは、データベース全体ではなく、特定のテーブルセットでのみ実行されます。私は接続APIドキュメントから理解することは、私は、次を提供する必要があるということです。
1)ソースコネクタ輸入データ - SQL /ファイルシステムからカフカのトピックに沈むコネクタはデータをエクスポート
2) - カフカのトピックからにしかし、それでは、Connect APIにはまだトピックに書き込み/読み込みが含まれているため、複数のデータベーステーブルを挿入/更新/削除に同期させることがどのように関係するかを理解しようとしています。必然的に私のユースケースです。私はKafkaストリームについても見てきましたが、データ集約やカウンター管理については効率的なツールのように思えます。
私の前提が正しいかどうかは誰でも説明できますが、Streams/Connect APIをまだ探索する必要がありますか?
よろしく、
あなたは実際にどのような問題を解決していますか? 「更新/挿入/削除を同期する必要がある」ということはたくさんあります:)まっすぐなテーブル複製が必要な場合は、DB固有のオファリング(Oracle GoldenGateなど)があります。これが共有して伝播したいアプリケーションデータであれば、カフカが助けになるかもしれません。あなたは何かをやってほしいと思うものを記述し、何かをやりたいのであれば、* how *を手助けすることができます:) –
@RobinMoffatt質問から、データベースへの挿入/更新/削除テーブル)は非常に自明です。 dbテーブルには、アプリケーションデータとその他のメタデータを混在させることができます。私はそれがあなたに合っているかどうか質問を更新しました – ha9u63ar
私のコメントを投稿してからあなたの質問が変わりました:)質問をしましょう:なぜ標準のDB /テーブル複製ツールの代わりにKafkaを使用したいのですか?これらは同じDB、または異なる技術ですか? –