SparkとScalaは比較的新しいです。SPARK_HOMEのないスパーク
私はWindowsのボックスとCentosクラスタの両方でローカルモードで実行されるscalaアプリケーションを持っています。
限り火花は私のクラスパス(すなわち、のpom.xml)にあるように、スパークSPARK_HOMEを必要とすることなく、ユニットテストとして実行されます。しかし、spark.driver.memoryのようなSparkプロパティを設定するにはどうしたらいいですか?
ローカルで実行されているsparkのインスタンスがある場合、私のユニットテストアプリケーションはローカルモードでは無視しているようです。スパークコンソールに出力が表示されないのは、コマンドラインから(spark-shellコマンドを使用して)起動したスパークインスタンスを使用していることを示唆しています。私は間違っていますか?もしそうでなければ、そのインスタンスを使用するために私のスカラアプリケーションを取得するにはどうしたらいいですか?コメントから有用な情報を含めるように編集
「スパークインスタンス」とは、コマンドラインから始まったものです。あなたはこれを始めるために何をしましたか? – puhlen
スパークを起動するspark-shellコマンド – Jake
btwこれは初心者の質問です。すべての起動ガイドが私にapache_homeを作成し、spark-shellを使用するよう指示するので、私は混乱しています。しかし、これはアプリの開発を呼び起こすこととは無関係のようです。それでSparkSessionから行えないsparkのプロパティを変更したいときに問題につながります。(または私が読んでいる) – Jake