2016-04-13 4 views
1

大量のXMLファイルをSQL Azureテーブルにインポートするためのアーキテクチャ要素とガイドラインを探しています。以下は大量のXMLファイルをAzure SQLテーブルに確実にインポートするAzureアーキテクチャ

は、XMLファイル形式と入力の特徴である:

  • xmlファイルは大きくありません。
  • XMLファイルのスキーマは非常に単純でよく定義されています。
  • 時間ごとに、大量のXMLファイルがブロブストレージにコピーされています( )。

私は完璧な解決策としてBLOBストレージ入力でAzure Stream Analyticsを使用したいと考えていました。しかし、AzureのストリームAnalyticsはXML形式をサポートしていません:(

私は非常によくSSISオプションを認識していているが、SSISは、IaaSのだと私はAzureのベースのPaaSオプションを探しています

私のアズールのPaaSとは何ですかアーキテクチャオプション?

答えて

0

SQL DBに直接書き込むことはできますか? SQL DBのXMLデータ型機能は、解析を行うのに十分なはずです。これは、いくつかのコード例を示しています。http://www.sqlserver.info/syntax/parse-xml-with-sql-server/

Blobストアの上流を制御しないと、変更を追跡してデータをSQL DBにポンピングするオプションがあります。最も簡単なのはたぶんBlobにバインドされたWebJobだけです。これはあなたを起動させるはずです。

HTHにはまだ少しの待ち時間があります。

1

推奨される解決策は、Data工場は喜んであまりにもSQLテーブルにデータを直接送信しますが、あなたは、ストリーム分析により、摂取前にデータ変換を実行するためにAzureのデータファクトリーを使用することである。

がありますそれをすべて説明する良いブログ投稿Solving the “big legacy data” problem using Azure Data Factory…

+0

ありがとうございます@マイケルADFのトリガーメカニズムは何ですか? XMLファイルをBLOBにアップロードするとすぐに処理する必要があります。 SAはBLOBストレージをうまくスキャンし、新しいXMLファイルを取り出して処理します。 ADFは同様に新しいファイルのBLOBを監視できますか? –

関連する問題