Spark 2.2.0では、ノードごとに複数のワーカーを起動するオプションSPARK_WORKER_INSTANCESは表示されません。これはどうすればいいですか?SPARK_WORKER_INSTANCES for Spark 2.2.0
1
A
答えて
1
を試験するために有用である単一のマシン(ローカルホスト)に、起動スクリプトのデフォルトを存在しない場合は、spark
フォルダのconf
ディレクトリ内spark-env.sh
ファイルを見れば、あなたはオプションSPARK_WORKER_INSTANCES=1
が表示されます。それをあなたが望む番号に変更することができます。
したがって、スパークがsbin/start-all.sh
で開始される場合、定義されたワーカーノードの数がそのマシンで開始される必要があります。
0
documentationスパークによると、起動スクリプトでスパークスタンドアロンクラスタを起動するには
を、あなたはどこのすべてのマシンのホスト名が含まれている必要があり、あなたのスパークディレクトリ内のconf /スレーブと呼ばれるファイルを、作成する必要がありますあなたは、1行に1つずつ、Sparkワーカーを開始するつもりです。 confに/スレーブが
関連する問題
- 1. Spark 2.2.0 FileOutputCommitter
- 2. Spark 2.2.0でデータが読み込めない形式のデータセット
- 3. Spark for Json Data
- 4. スパークジョブサーバfor spark 1.6.0
- 5. Spark Implicit $ for DataFrame
- 6. Spark 2.2.0ストリーミングデータソースの検索に失敗しました:kafka
- 7. GLM with Apache Spark 2.2.0 - Tweedieファミリーの既定のリンク値
- 8. SparkR(Spark 2.1.0または2.2.0)にMaxAbsScalerはありますか?
- 9. spark.sql.crossJoin.enabled for Spark 2.x
- 10. Spark UDF for StructType/Row
- 11. スパーク2.2.0 S3パフォーマンス
- 12. Spark T4 templates for ASP.NET MVC
- 13. Apache Beamバージョン2.2.0
- 14. jQueryの2.2.0エラー
- 15. のWebPACK 2.2.0アンドロイド
- 16. magento 2.2.0 devバージョン
- 17. Spark 2.2.0を使用してHiveメタストア2.xから読み取る
- 18. AWSのSpark 2.2.0 EMRによる寄木細工への書き込み
- 19. forループのSpark列のデータ型検証 - Spark DataFrame
- 20. Kafka Consumer for Spark for Kafka API 0.10:カスタムAVROデシリアライザ
- 21. Java for Sparkのコンパイル方法は?
- 22. RESTEasy 2.2.0.GAのMaven設定
- 23. Opencart 2.2.0 Googleの分析
- 24. GWT 2.2.0とサードパーティのMVPフレームワーク
- 25. opencartの空のヘッダカート2.2.0
- 26. 実行可能な2.2.0
- 27. Alfresco sdk 2.2.0からsdk3.0.1
- 28. 特定のコード片をSpark 1.6.2からSpark 2.2.0に変換するにはどうすればよいですか?
- 29. ダウンロードファイルpfromポータルは、JSR-286 + Strutsの2.2.0 + PortletPlugin 2.2.0</p> <p>私に」6.1.5
- 30. Spark 2.2.0:リストの列のデータセットから特定の重複を削除する方法
ありがとうございました。見つけた。それはオンラインドキュメントにはありません。私はspark-env.shファイルを変更する権限を持っていないので、--conf key = valueフォーマットとしてspark-submitオプションを使うことができます。 – SSH
あなたは-conf spark.worker.instances = 3を意味しますか? – SSH
火花のような構成があってはならない。あなたは思うことができます。成功した場合は私にも教えてください:) –