に基づいては、(うまくいけば)データ湖とブロブストレージにメッセージを格納するストリームAnalyticsを使用しています。重要な要件は、AvroコンテナがIoTハブに提示されたときとまったく同じに見える必要があり、下流のコンシューマの利益のためです。ストリーム解析:ダイナミック出力パス私はアズールのIoTハブで焼成アブロ形式のメッセージを消費したIoT分析ソリューションに取り組んでいますメッセージペイロード
個別のファイル作成を細かく制御できるStream Analyticsの制限があります。新しい出力ストリームパスを設定するときは、パスプレフィックスに日付/日と時間のみを指定できるので、受信したすべてのメッセージに対して1つのファイルではなく1時間ごとに1つのファイルになります。顧客は、各デバイスごとに別々のブロブコンテナを必要とし、各イベントごとにブロブを分離する必要があります。同様に、データ・レイクの要件は、デバイスによって描写された賢い命名規則を指示し、各イベントの別々のファイルを取り込みます。
誰かが入力からメッセージをポップするたびに新しいファイルを作成するようにStream Analyticsを設定しましたか?これは厳しい製品制限ですか?
おかげアレクサンドルが、これは我々が一緒に行くことになったものを効果的です。我々はすでに、typeプロパティに基づいてメッセージの包括的なカテゴリーを抜け出すためにルートを使用しているが、これはターゲットの何百万と少し過大だったでしょう。顧客は、我々はその後、ADFを活用し、ストレージに直進しているので、初期の摂取に曲げて喜んでいました。 –