を使用して、マルチノードシステムで自分のコードをテストしました。 (もちろん、マルチノード環境を実現するためにマスターサーバーアドレスとしてマスターオプションを指定しました)。 しかし、を使用する代わりに、spark-shellを使用してクラスタシステムで自分のコードをテストしたいと思います。しかし、spark-shellでマルチノードクラスタ設定を構成する方法がわかりません。spark-shellでマルチノードを実行するには?
セットアップを変更せずにspark-shellを使うだけで、ローカルモードになると思います。
私は情報を検索しようとし、以下のコマンドに従った。
scala> sc.stop()
...
scala> import org.apache.spark.{SparkContext, SparkConf}
import org.apache.spark.{SparkContext, SparkConf}
scala> val sc = new SparkContext(new SparkConf().setAppName("shell").setMaster("my server address"))
...
scala> import org.apache.spark.sql.SQLContext
import org.apache.spark.sql.SQLContext
scala> val sqlContext = new SQLContext(sc)
sqlContext: org.apache.spark.sql.SQLContext = [email protected]
ただし、spark-shellを使用したマルチノードクラスタセットアップで正しい動作をしていることは間違いありません。