2017-05-12 13 views
0

私はSpark Job Serverからかなり大きな期待をしていましたが、それは非常にドキュメントの不足を発見しました。あなたは次の質問の1 /すべてをお答えくださいでしスパークジョブサーバのマルチスレッド化とダイナミックアロケーション

  1. は仕事Serverがスパークセッションを介してジョブを送信スパークしていますか?
  2. Spark Job Serverと並行していくつかのジョブを実行することは可能ですか?I saw people faced some troubles、私はまだ解決策を見ていません。
  3. 異なるCPU、コア、エグゼキュータのconfigsと並列に実行するジョブはほとんどありませんか?まだSparkSessionをサポートしていないジョブサーバ

答えて

1
  1. スパーク。私たちはそれに取り組んでいきます。
  2. 複数のコンテキストを作成することも、コンテキストを実行してFAIRスケジューラを使用することもできます。
  3. 異なるリソース設定で異なるコンテキストを使用します。

基本的にジョブサーバーは、スパークコンテキストを作成するためのAPIです。だからあなたは火花の文脈でできることをすることができるはずです。

+0

「隔離のためのSparkContextごとのJVMを分離する」(https://github.com/spark-jobserver/spark-jobserver#features)の意味は何ですか? –

+0

最初は、SJSは単一のコンテキストのみをサポートしていました。スパーク側に制限があったため、1つのドライバJVMは1つのコンテキストしか持てません。この問題を解決するために、新しいフラグを導入しました。コンテキストごとに新しいJVMが生成されます。 – noorul

関連する問題