2017-08-04 3 views
-1

SQLサーバに複数の「大きな」txtファイルを挿入する必要があります。このデータ量を初めて処理することになります。大きなtxtをSQLに挿入する

私の職場での現在の方法は、私の同僚(私はthats waaaaayがあまりにも)だと思いますテーブルあたりの平均1週間かかるインポート/エクスポートウィザード。

3つの大きなテーブルは、70〜150万行のうち50〜150個の列です。

私はbcp/bulkinsertについて読んだことがありますが、実際の実装方法とどちらが速いのかは分かりません。私が得た唯一の事は、制約付きでデータを挿入する方が遅く、テーブルが作成された後にそれらを追加することです。

私の質問は次のとおりです。どのツールがタスクに適しているのか、パフォーマンスを改善するために何ができるのですか。

答えて

1

最後に、インポート/エクスポートウィザードはバックグラウンドでbcpを使用すると思います。あなたは、パフォーマンスを改善するためにできることのいくつかは以下のとおりです。

  • 無効化/制約を削除
  • 無効化/削除は
  • 無効化/インデックス
  • 使用最小限のログデータベースの復旧モデル
を削除をトリガー

頭に入れておいていただきたいことは、挿入しているテーブルに大部分のデータが挿入されていると、パフォーマンスがそれほど速くならないことです。また、ファイルの一部を並列に挿入することもできます。ここで

は、より多くの情報および最適化するための他の方法とのリンクです:https://technet.microsoft.com/en-us/library/ms190421(v=sql.105).aspx

が、これは

を役に立てば幸い
関連する問題