google dataprocでデフォルト設定(4つのvCPU、15GB RAM)でクラスタを作成しました。 複数の豚ジョブを処理した後、クラスターに2〜3の正常でないノードがありました。 私はワーカーVMのvCPU(4〜8 vCPU)、RAM(15GB〜30GB)、ディスクをアップグレードしました。 しかし、Hadoop Webインターフェイスでは、ワーカーノードのハードウェアが変更されていないことが示されていましたが、vCPU/Ram/Diskの元のマウントがまだ示されていました。dataprocで作業者のcpu/ram/diskをどのように動的にアップグレードしますか?
dataprocでワーカーのCPU/RAM /ディスクを動的にアップグレードするにはどうすればよいですか?
ありがとうございました。
ありがとうございました。私は、アップグレードされた作業者のHW仕様に合うようにhadoop/spartkプロパティを設定する方法を知りたい。ハーフープ性能を向上させることができる。 – Ethan
私たちは常にdataprocとhadoop/sparkのリリースごとにプロパティを最適化しています。どのようにすることができるかの例があります(ただし、クラスタ作成時にこれをしないでください):http://docs.hortonworks.com/HDPDocuments/HDP2/HDP-2.3.0/bk_installing_manually_book/content/determine-hdp- memory-config.html – tix