私は約1年のapache solrユーザーです。私は単純な検索ツールにsolrを使用しましたが、現在は5TBのデータでsolrを使用したいと考えています。私は、5TBのデータは、私が使用するフィルタに従ってsolrインデックスを作成すると、7TBになると仮定します。そして、同じインデックスに1時間あたり約50MBのデータを追加します。Apache SolrでTeraByteの大きなデータを処理できるか
1-5TBデータのシングルソルサーバーで問題がありますか。 (破片なし)
A-は、サーバーをSOLRできます7TBインデックス上の50メガバイトのデータのコミットのための予想時間が何であるかB-
許容時間内にクエリに応答します。
c-インデックスサイズの上限はありますか?
2 - あなたはどのように多くの破片私は
B-を使用する必要があり、私はSolrのコア
C-を使用すべきA-
を提供する提案は何ですかあなたが提供したコミット頻度は何ですか?
3-大きなデータ
この種のいずれかのテスト結果は、使用可能な5TBデータはありませんがあります(1時間OKです)、私は結果がどうなるかを推定します。
注:ハードウェアリソースは問題ではないと考えることができます。
あなたに質問します。 5TBの生データのインデックスを作成していると仮定すると、なぜ7TBに成長すると思いますか?検索フィールドを格納するのではなく、インデックスに完全なドキュメントコンテンツを格納することを意味すると思いますか?もしそうなら、私はSolrでの検索に必要なものだけを格納することをお勧めします。生の文書自体は他の所に属しています。 – rfeak