2016-08-22 3 views
0

google dataprocでデフォルト設定(4つのvCPU、15GB RAM)でクラスタを作成しました。 複数の豚ジョブを処理した後、クラスターに2〜3の正常でないノードがありました。 私はワーカーVMのvCPU(4〜8 vCPU)、RAM(15GB〜30GB)、ディスクをアップグレードしました。 しかし、Hadoop Webインターフェイスでは、ワーカーノードのハードウェアが変更されていないことが示されていましたが、vCPU/Ram/Diskの元のマウントがまだ示されていました。dataprocで作業者のcpu/ram/diskをどのように動的にアップグレードしますか?

dataprocでワーカーのCPU/RAM /ディスクを動的にアップグレードするにはどうすればよいですか?

ありがとうございました。

答えて

0

Dataprocには、稼働中のクラスタでワーカーをアップグレードする機能がありません。アップグレードするには、クラスタを再作成することをお勧めします。また、gcloudコマンドを更新してクラスタを介して余分なワーカーを追加することもできます。

各ワーカーインスタンスを停止してアップグレードして再起動することで、ワーカータイプをアップグレードすることができます。しかし、異なる容器サイズに合わせて変更する必要のある、多数のハープ/スパーク特性があります。

+0

ありがとうございました。私は、アップグレードされた作業者のHW仕様に合うようにhadoop/spartkプロパティを設定する方法を知りたい。ハーフープ性能を向上させることができる。 – Ethan

+0

私たちは常にdataprocとhadoop/sparkのリリースごとにプロパティを最適化しています。どのようにすることができるかの例があります(ただし、クラスタ作成時にこれをしないでください):http://docs.hortonworks.com/HDPDocuments/HDP2/HDP-2.3.0/bk_installing_manually_book/content/determine-hdp- memory-config.html – tix

関連する問題