私は大量のデータを毎日、数十万のレコードをインポートするアプリケーションを持っています。
データはさまざまなソースから供給されています。データはC#を使用して読み取られ、データベースに一括して挿入されます。
このデータは、次いで、処理されます大量のデータストアドプロシージャやデータセットなどを管理していますか?
- 異なるテーブルが
- 新しいテーブルが
- データが複雑algorithmnsを用いて補正された生成されたリンクされ
この処理のほとんどはストアドプロシージャで行われます。
複雑な処理の中にはC#で簡単なものもありますが、データセットをデータセットに抽出して再挿入すると処理が大幅に遅くなります。
データベースにデータを挿入する前にデータを処理しない理由を尋ねるかもしれませんが、メモリ内の100,000レコードを操作することは現実的ではないと考えています。
これはおそらく、ストアドプロシージャとその賛否両論を使用するという年齢の古い問題を引き起こすでしょう。 (例:単体テスト・ストアド・プロシージャはどのようにしますか?)
大量のデータを使用していて、問題にどのように取り組んできたかをお聞かせください。