私は初心者のように話すならば、私は非常にスパークするために新しいです、ただ学ぶので私と一緒にご負担ください。スパークからスタンドアロンのjarファイルを実行する方法。
私は、このjarファイルの機能は、キューに耳を傾け、いくつかのメッセージを処理することである
、自己完結型で、通常のJavaのjarファイルを持っています。今では、分散型の方法でキューから読み取る必要があるため、スパークマスターとYarnによって管理される3つのスレーブがあります。私が./spark-スタンドアロンマスター上のこのjarファイルをサブミットすると、すべて正常に動作します。コマンドラインでYarnをマスタとして設定してクラスタモードに切り替えると、HDFSでファイルが見つからないというエラーが発生します。 私はスタックを読んで、SparkContextについて言及する必要があることを知っていましたが、私の場合はそれを使用していません。
の質問がここにあります:
私はまだ、私は私の場合にはsparkContext
のいずれかの使用方法を参照してくださいいけない
SparkConf conf = new SparkConf().setMaster("yarn-cluster").setAppName("TibcoMessageConsumer");
SparkContext sparkContext = new SparkContext(conf);
を使用する必要があります。
あなたは実行することはできませんjarファイルに 'SparkContext'を付けずに' spark-submit'を使用しています。 – philantrovert
私はこれを1つのノードで成功させました!!ここでスパーク・コンテキストはどのように使用されますか?私が意味をなさないのであれば、私に同行してください。 – User3
spark-submitはsparkコンテキストなしで動作しましたか?ありがとう、私はそれを知らなかった。私はそれについて私が見つけることができるものを読み始めるでしょう。 – philantrovert