リモートクラスタに接続してSparkプロセスを実行したいとします。 私が読んだところでは、これはSparkConfで指定されています。Scala Sparkがリモートクラスタに接続
val conf = new SparkConf()
.setAppName("MyAppName")
.setMaster("spark://my_ip:7077")
ここで、my_ipは自分のクラスタのIPアドレスです。 残念ながら、接続が拒否されます。だから、私はいくつかの資格情報が正しく接続するために追加されなければならないと推測しています。資格情報はどのように指定しますか?これは.set(key、value)で行われるようですが、これについてのリードはありません。
クラスタ上で設定する必要がありますもちろんのpopuar Java Secure Channel (JSCH)を使用することができた場合には、Sparkスタンドアロンクラスタまたは糸に接続していますか? – jamborta
@jamborta私は糸に接続しています –
sshセッションの証明書を作成し、それが動作することを確認してください。ファイアウォールがこのポートを接続できるようにしてください。 – Pavel