0

に基づいては、(うまくいけば)データ湖とブロブストレージにメッセージを格納するストリームAnalyticsを使用しています。重要な要件は、AvroコンテナがIoTハブに提示されたときとまったく同じに見える必要があり、下流のコンシューマの利益のためです。ストリーム解析:ダイナミック出力パス私はアズールのIoTハブで焼成アブロ形式のメッセージを消費したIoT分析ソリューションに取り組んでいますメッセージペイロード

個別のファイル作成を細かく制御できるStream Analyticsの制限があります。新しい出力ストリームパスを設定するときは、パスプレフィックスに日付/日と時間のみを指定できるので、受信したすべてのメッセージに対して1つのファイルではなく1時間ごとに1つのファイルになります。顧客は、各デバイスごとに別々のブロブコンテナを必要とし、各イベントごとにブロブを分離する必要があります。同様に、データ・レイクの要件は、デバイスによって描写された賢い命名規則を指示し、各イベントの別々のファイルを取り込みます。

誰かが入力からメッセージをポップするたびに新しいファイルを作成するようにStream Analyticsを設定しましたか?これは厳しい製品制限ですか?

答えて

1

ストリームアナリティクスは実際に大きなストリームの効率的な処理を目的としています。 ご使用のケースでは、カスタムロジックを実装するための追加コンポーネントが必要です。

ストリームアナリティクスは、Blob、Event Hub、Table StoreまたはService Busに出力できます。別のオプションは、イベントのハブまたはサービスバスキューまたはトピックに直接ルーティングする新しいIot Hub Routesを使用することです。

Azure Function(または、BLOBまたはテーブルストレージのcustom Data Factory activity)を記述し、Data Lake Store SDKを使用して、必要なロジックを持つファイルを書き込むことができます。

+0

おかげアレクサンドルが、これは我々が一緒に行くことになったものを効果的です。我々はすでに、typeプロパティに基づいてメッセージの包括的なカテゴリーを抜け出すためにルートを使用しているが、これはターゲットの何百万と少し過大だったでしょう。顧客は、我々はその後、ADFを活用し、ストレージに直進しているので、初期の摂取に曲げて喜んでいました。 –

関連する問題