2016-11-16 16 views
0

大量のデータ - 〜6Mのテキスト行を(Azure Hosted)SQL ServerからBlobストレージに移行する最適な方法を理解しようとしています。Azure Data Sync - 各SQL行をBlobにコピー

ほとんどの場合、これらのレコードはアーカイブされたレコードであり、ほとんどアクセスされません。ブロブストレージは、これらを保持する場所として理にかなっています。

私はAzure Data Factoryを見てきました。これは正しい選択ですが、要件を満たしているかどうかは不明です。

単純にシナリオは、テーブルの各行について、この行の1列の内容でBLOBを作成したいとします。

このチュートリアル(https://docs.microsoft.com/en-us/azure/data-factory/data-factory-copy-activity-tutorial-using-azure-portal)はバルクからバルクへのデータパイプラインの移行について説明していますが、バルクから多数へのデータセットから移行したいと考えています。

誰かが助けてくれるといいと思いますか?

+0

テーブルストレージを使用しているときにテキストをBLOBに移行する理由は何ですか? – Paparazzi

+0

この場合、それは各行のための膨大な量のテキストであり、継続的な使用のために、Blobは私たちのための正しい店舗でした – Nagoh

答えて

1

今のところ、Azure Data Factoryには、SSISのFor Eachループのようなものは組み込まれていません。これを行うには、カスタム.netアクティビティを使用できますが、多くのカスタムコードが必要になります。

これを別のデータベースに転送すると、同じ構造のすべてで600万のテーブルを作成できますか?別々のアイテムを持つことによって得られるものは何ですか?

もう1つの方法は、データファクトリを使用して簡単にJSONに変換することです。ここでは、最近データをDocumentDBに移動した例を示します。このようAzureブロブのアップロードタスクとAzureブロブ先としてAzureのタスクを与え

Copy From OnPrem SQL server to DocumentDB using custom activity in ADF Pipeline

Azure Feature PackとSSIS 2016、。これを使用する方が良いかもしれません。OLEDBコマンドや、Azure BLOB宛先のFor Eachループが別のオプションかもしれません。

幸運を祈る!

関連する問題