私はSparkとScalaを同時に使い慣れているので、いくつかのことを明確にする必要があります。私はウェブに行って私の質問に対する決定的な答えを探していましたが、実際には私の質問に終わったわけではありません。Sparkに.jarをインストールする
現時点では、私はspark-shell
を実行しています。基本的なScalaを書いてチュートリアルを完了するためです。今、このチュートリアルでは、私がsparkでライブラリを追加して、それをインポートして例のために使用したいと考えています。ライブラリの.jar
ファイルをダウンロードしました。 /spark/jars/
フォルダに入れる必要がありますか?それをインポートするには十分ですか、それとも他の場所に宣言する必要がありますか? ./spark-shell
を実行する前にコマンドを追加する必要はありますか?
また、私は、スタンドアロンのプログラム(sbt
を使用し、build.sbtでライブラリを宣言する)を作成する際、火花が/spark/jars/
フォルダに.jar
を見つけるだろうか、私は別の場所に置く必要があるのですか?
あなたはまた、sbtで構築されたスタンドアロンアプリについての部分に答えることができますか? – Kagestrife
私の更新答えを見てください:) –