10ノードを持ち、巨大なtsv [tab separated value]ファイルを毎日アップロードしているcassandraクラスタを実行していますが、パフォーマンスを向上させ、待ち時間を短縮するためにプロジェクトをgoogle bigtableに移動します。
私はクラウドコンピューティングサーバー[1ノード]にhbaseプラグインをインストールし、bigtableにこれらのtsvファイルをアップロードする方法を知りませんでした。ファイルをbigtableにアップロードする
は、私のtsv形式です。
col1 col2 col3 col4 col5 col6です。 。
ここで、col1はプライマリキーで、col2とcol3はcassandraテーブルのクラスタキーです。
今、私はbigtableに似たようなテーブルを作成することができ、bigtableにtsvファイルをアップロードするために利用できるメソッドは何ですか?
返信いただきありがとうソロモン、私はここで少し混乱しています。私がhbaseで2番目の方法bigtableを選択した場合、なぜhadoopクラスタが必要ですか? hbaseクライアントを使用してデータをロードするにはhadoopクラスタが必要です。または、hbaseクライアントのみを使用してデータを単純にロードします。 – Rajnish
私はあなたがたくさんのデータを持っていて、それを高速に読み込みたいと思っています。 hbaseクライアントを使用してデータをロードするには、mainメソッドまたはtsv load関数を持つコマンドラインシェルを含むhbaseのローカルインストールを使用する必要があります。 –