2011-06-15 7 views
14

マルチバイトファイルのアップロード、ディスクへの書き込み、後でMSSQL 2008でBCPを使用してロードするASP.NETアプリケーションがあります。ファイルをSQL Azureに一括ロードする?

私はすべてをAzureに移行したいと思いますが、BCPのための「ファイル」がないので、誰かがAzureアプリケーションからSQL Azureにバルクデータを取得する方法についてコメントできますか?

私はhttp://msdn.microsoft.com/en-us/library/system.data.sqlclient.sqlbulkcopy.aspxを見ましたが、それが当てはまるかどうかはわかりません。

ありがとうございました。オプションの詳細な分析のための

+1

アップロードがASP.NET Webページからのものであれば、データが30 MBを超える場合と同じ問題が発生します。私の質問を参照してください。http://stackoverflow.com/questions/6402253/how-to- upload-huge-files-to-the-azure-blog-from-a-web-pageを参照してください。 –

答えて

7

BCPはこれを行う方法の1つです。

この投稿は、3つの簡単なステップでそれを説明する: Bulk insert with Azure SQL

+0

BCPには紺碧への80GBのファイルが12時間かかります。バルクでローカルに挿入すると、2時間かかります。 azureのローカルファイルからのbcpingのようなヒントはありますか? – MIKE

+1

@MIKEコマンドフォームとAzure VMを同じデータセンター内で実行しようとしましたか? 80gigファイルをAzure Fileストレージフォルダ内に置くことができます。これにより、VMで使用できるようになります。 –

+0

賢いアイデアのように聞こえます。私はこれを試してみる。 azureが標準層とプレミアム層のbcp(インサートを遅くする)を抑制するかどうか知っていますか?私はそれが約10 1000の挿入し、その後30秒遅れ、私はそれが私のローカルマシンや青空によって抑制されているかわからない私は気づいて挿入中に。 (私のローカルコンピュータではなく、それはサーバーです) – MIKE

3

あなたは正しい軌道に乗っています。一括コピーAPIが機能します。私はそれを使用しています。また、INSERT BULK文を使用するため、データをインポートするための最速の方法です。 SQL AzureでサポートされていないBULK INSERTステートメントと混同しないでください。本質的に、BCPとSqlBulkCopy APIは同じメソッドを使用します。

1

私はそれがBCPをインポートを行うには、フォーマットファイルを使用しながら、Unicodeをされているソースファイルを扱うことができないことに注意することが重要だと思います。