私はこの写真の現在のスパーク状況を理解しようとしています。スパークUIの読み方
それは私にどのように見えるかを
- 93.3 GBのRAM
pyskark-shell
は各マシンの各マシンと32 GBのRAMで10個のコアを使用する各 - アプリで4労働者のマシン
- アプリ
backtestin2
用途各マシンで2つまたは6つのコアと各マシンで8つのGbを使用します。
(注:私は仕事がノード間で分割されているかについて確信しています。)
私の期待
- アプリ
pyskark-shell
は= 320 Gbは使用各コアの各マシンで10個のコアと各マシンで32 GBのRAMを使用しています総 - アプリ
backtestin2
、これは目を意味し
をマシン間で分割コア16を使用し、各コアは、各マシンに8 GBに必要=合計128ギガビットノードあたりのメモリは、特定のアプリケーションのノードで実行されているすべてのタスク間で共有されていますか?私は、プロパティconf.set('spark.executor.memory', executor_memory)
は、タスクごとにされている必要があります。
理由:
私は、各タスクが必要とどのくらいのメモリを知っていますが、私は、各エグゼキュータに入るか、多くのタスクを知らない:そのため私は、エグゼキュータのメモリごとに推定することはできません。