私は基本的にかなり大きなデータベースを持つべき報告ツールである新しいプロジェクトを開始しようとしています。非常に大きなデータをどのように処理するのですか?
テーブルの数は大きくなく(< 200)、データの大部分(80%)は20個のテーブルに格納され、すべてのデータはほとんど挿入/読み取り専用(更新なし)です。
1つのテーブルの推定データ量は1分あたり240,000レコードに増加する予定であり、さまざまなレポートを作成できるようにするには少なくとも1年から3年を維持する必要があり、管理者によってオンラインで表示されます。
私はその大規模なデータベースとの最初の手の経験を持っていないので、私はDBは、このような状況では最良の選択である持っているものを求めています。私はオラクルが安全な賭けだと知っていますが、誰かがhadoopdbやGoogleの大きなテーブルのようなデータベース以外の経験を持っているならば、もっと興味があります。 私を案内してください。事前
あなたは*本当に*すべてのデータを維持する必要があります:たとえば、私はAcunuがカサンドラの彼らの味に埋め込む分析に何をしているかを見てみたいですか?何とか集約できますか?おそらく生データをバケットにマージしますか? 1秒あたり4000レコードが少し不気味です。あなたの記録はどれくらいですか? –
電卓のためにまっすぐ行く人には、私は少し努力を惜しまないでしょう:3年後に378.432億レコード。< – Corbin
あなたの応答のために、@ hewgillさん、ありがとうございます。私のプロジェクトはツールを報告していますので、年を上回っていると報告すると、私はそのデータを年間よりも長く3年間保管しなければなりません。私はデータを集計するが、すべてのレポートの最後に集計された形式ではない単一行の形式でデータを表示する。 – jenitshah