2017-08-01 9 views
-1

イベントハブが10秒ごとにデータを取得し、ストリーム分析に渡されてからAzure SQL Serverに渡されるシナリオがあります。技術チームは、データが2,00,00,000上昇した場合、Azure SQLが大量のデータを処理できないという懸念を提起しました。その後、動作を停止します。Azure SQLは着信ストリーム分析データを処理できません

Azure SQLの実際の問題ですか、私に指導していただけますか?解決策をお教えください。

+2

私はこれを明らかにする。 eventhubは10秒ごとに1つのイベントを受信し、そのイベントはAzure Stream Analytics(ASA)に送信され、そこからSQL Serverに格納されます。 ASAジョブで何らかの集約が行われているのですか、またはSQL Serverにイベントがそのまま保存されていますか? –

+0

Eventhubには複数のイベントがあり、ストリーム分析を介してAzure SQLに渡す必要があります。 –

+0

これは私の質問に対する完全な答えではありません。 –

答えて

2

4TBはAzure SQL Premium instanceの絶対最大サイズです。あなたのユースケースのすべてのイベントを保存する予定の場合、これは非常に迅速に完了します。メッセージを無期限に格納し、SQL DWまたはADLSで処理した後に集約にSQLを使用する必要がある場合は、CosmosDbまたはEvent Hub Captureの使用を検討してください。

イベントハブを最適化するには、スループットを最適化するためのパーティション化戦略が必要です。 See the docs

+0

ありがとうございます。 –

関連する問題