2016-07-04 19 views
1

私はIntelliJIdeaとによってsparkアプリケーションを開発しました。spark-assembly-1.6.1-hadoop2.6.0は私の依存関係の1つです。アプリケーションをjarファイルにデプロイして、​​で実行したいです。 jarファイルにspark-assembly-1.6.1-hadoop2.6.0を含めるか、他の依存関係を含めることは十分ですか?jarファイルにspark-assemblyを含める必要がありますか?

+0

あなたの言語は? –

+0

@Jacek Laskowski、私の言語はScalaです。 –

+0

なぜsbt(または他のビルド管理ツール)を使用しないのですか? –

答えて

0

Learning Spark: Lightning-Fast Big Data Analyticsで述べたように、jarファイルに火花アセンブリ-1.6.1-hadoop2.6.0を含める必要はありません。あなたがアプリケーションをバンドルしている場合

、あなたは含めるべきではありません 送信された依存関係のリストに自身を表示します。 spark-submit は、 プログラムのパスにSparkが存在することを自動的に確認します。

1

他の依存関係だけを含めても問題ありません(また、maven/sbt/...を使用する場合は、提供されている依存関係をマークする必要があります)。 spark-submitを実行すると、出力ログにjarとspark-assembly jarが両方ともhdfsにアップロードされ、後で使用されることがわかります。

関連する問題