同じレコード(または少数の値)を読み続けると、少なくとも数十万回の読み込みスループットを達成できるcassandraクライアントコードをユーザーに指摘できますか?レコードの)何度も何度も?私はrow_cache_size_in_mb
が頻繁に使用されるレコードをメモリにキャッシュすると思われますが、それを10MBと言うように設定することで違いはないようです。row_cache最適化による高い読み取りスループットを持つCassandraクライアントコード
私はもちろんcassandra-stress
を試しましたが、1KBのレコードで最大の読み取りスループットは(-col size=UNIFORM\(1000..1000\))
〜15K/sです。
上記の数値が小さいと、小さなワーキングセットサイズで、少なくとも100万回の読み込みが可能なメモリ内ハッシュマップベースのキャッシュを簡単に書き込むことができます。どのようにして私は自動的にこれを行うのですか?あるいは、小さなワーキングセットのサイズであっても、メモリ内のマップに近いパフォーマンスを達成するはずがありませんか?
ありがとうございます。あなたが言ったように、Cassandraのような完全なデータベースをスキーマに持たせると、メモリ内のパフォーマンスがネイティブのHashMapよりも遅くなることは明らかです。その理由は、セル/デザイナーだけでなく、Cassandraが結果を列/行にカプセル化するために余分なオブジェクトを作成するためです。この発言は他のNoSQLソリューションにも当てはまります – doanduyhai