私はgoogle dataprocを使って作成したクラスタでjupyterを使用しています。google dataprocを管理するpreemptible-workers永続的なディスクサイズ
クラスタの "サイズ"(マシンタイプ、ブートディスクサイズ、ワーカー数、...)を私のニーズに合わせて変更しようとしましたが、かなりうまく動作しています。
主な問題は、プリエンプティブワーカーの永続ディスクサイズを変更する方法がないことです。
私は、このコマンドを使用しています:
gcloud dataproc clusters create jupyter --project <my_project> --initialization-actions gs://dataproc-initialization-actions/jupyter/jupyter.sh --num-preemptible-workers 0 --master-boot-disk-size 25 --worker-boot-disk-size 10 --worker-machine-type n1-standard-1 --worker-boot-disk-size 10
は、私が「
--worker-boot-disk-size 10
」オプションはプリエンプティブなものにも適用されていることを望んだが、それはしませんでした。
したがって、プリエンプティブワーカーのブートディスクサイズを変更する方法はありますか?
さらに、Googleでは、プリエンプティブワーカーの永続ディスク使用量について請求しますか?
ありがとうございます。デフォルトの100GBで十分でないユースケースを分かち合うことができますか?可能であれば、[email protected] – tix
100 GBが私の必要以上にメールしてください。私の目的はディスクの大きさを減らしてコストを削減することでした。 –
こんにちは、これは修正されました。プリエンプティブVMを作成せずにクラスタを作成する場合は、--num-preemptible-workersを指定できます。 参照:https://cloud.google.com/dataproc/docs/release-notes/service#september_16_2016 – tix