0
私は、dataset > 50 M
の行と数えを持つMySQL
テーブルを持っています。頻繁に更新される大規模なデータセットを保存する最良のデータベースソリューションは何ですか?
多くのアップデートと挿入があります(データセットが増えています)ので、時間が経つにつれてボトルネックになるのではないかと心配しています。
もっと速いアップデートと速い検索を持つ優れたソリューションをお勧めする人はいますか?
私は、dataset > 50 M
の行と数えを持つMySQL
テーブルを持っています。頻繁に更新される大規模なデータセットを保存する最良のデータベースソリューションは何ですか?
多くのアップデートと挿入があります(データセットが増えています)ので、時間が経つにつれてボトルネックになるのではないかと心配しています。
もっと速いアップデートと速い検索を持つ優れたソリューションをお勧めする人はいますか?
私は専門家ではないですが、私も同じ問題に遭遇してきたと分布をロードするには見えるように言われた...
を本質的には2つ以上のサーバーを実行され、ソフトウェアが指示します負荷に基づいてサーバーに要求します。
しかし、あなたは効率的にデータベースを使用していますか?例えば、私は現在、例えば数字で定期的に使用された作品を交換する(バックエンド)でのフルテキスト文字列を使用してからの私のデータベースを変更することで探しています:
1 = Tom
2 = Sabastian
3 = Paris
4 = Something Else
5 = Foo Bar Barry
は私はあなたの考えを知っていると
S
実践します
挿入が頻繁に行われる場合は、I/Oで待機を確認し、インデックスの断片化を調べることができます。更新の場合は、対象となる(「do everything」以外の)更新プログラムが、更新される行を識別するために1つ以上のインデックスを使用していることを確認してください。また、断片化のためにインデックスを再度見ることもできます。多くの場合、更新は別のテーブルの値に基づいて行われます。その値を取得するクエリがインデックス付きクエリにも基づいていることを確認してください。 –