sparkから並列にRedisに書き込むことは可能ですか?spark/scala redisへの並列書き込み
(または:スパークからすぐに数十キー/リストの何千ものを書き込む方法)
現在、私は、シーケンス内のキーでのRedisに書いて、それが永遠にをを取っています。私は約90000リスト(長さ2〜2000)を書く必要があります。スピードは非常に重要です。現在、1時間程度かかります。 Redisの伝統的なベンチマークでは、毎秒何千ものRedisの書き込みがあると主張していますが、私のパイプラインでは、その近くにはありません。
何か助けていただければ幸いです。
私はTwitterであなたに質問しましたが、あなたの設定は何ですか?一回の赤ちゃん?レディスクラスター? RLEC? –
ただ1つのRedisを実際に使用しています。 mesosクラスタで実行しています。 – BBischof
コネクタは、すべてのスパークノードにローカルのredisノードがあり、パーティション化関数が一致するように、ローカルのredisに書き込むように、redisクラスタで実行するように最適化されています。いくつのスパークノードを実行していますか? –