2
スパークジョブの結果、1億件のレコードがHBaseテーブル(PHOENIX)に挿入されています。ジョシュMahoninPHOENIX SPARK - BulkLoad用のDataFrame
:私はよりそれが
スパークジョブの結果、1億件のレコードがHBaseテーブル(PHOENIX)に挿入されています。ジョシュMahoninPHOENIX SPARK - BulkLoad用のDataFrame
:私はよりそれが
フェニックスHBaseのテーブルにデータを書き込むための効率的な方法ではありません、それはバルクロード(または)を行います、私はデータフレームに変換し、それを保存かどうかを知りたいです日付:水曜日、2016年5月18日午前10時29分PMに
件名:再:PHOENIX SPARK - へのバルクロード
ためDATAFRAME:[email protected]
こんにちは、
SparkインテグレーションはPhoenix MapReduceフレームワークを使用します。このフレームワークでは、それらを複数のワーカーに分散されたUPSERTに変換します。
両方の方法を試してみて、どちらがユースケースに最適かを確認する必要があります。価値のあるものについては、これらのデータサイズでのSparkの統合を使用して、ロード/セーブ操作を定期的に行います。