1

IntelliJ IDEでスパークアプリケーション(スカラ)を構築中にエラーが発生します。 さらなる処理のためにカフカストリームを使用する単純なアプリケーションです。すべてのjarファイルを追加しましたが、IDEは未解決のインポートまたはコードステートメントを表示しません。spark、kafka統合の問題:オブジェクトkafkaはorg.apache.spark.streamingのメンバーではありません

しかし、私はアーティファクトを構築しようとすると、私は エラーあることを示す2つのエラーを取得:(13、35)オブジェクトカフカがパッケージ

org.apache.spark.streaming 
import org.apache.spark.streaming.kafka.KafkaUtils 

Error:(35, 60) not found: value KafkaUtils 
    val messages: ReceiverInputDStream[(String, String)] = KafkaUtils.createStream(streamingContext,zkQuorum,"myGroup",topics) 

のメンバーではないが、私は同様の質問を見たが、ほとんどしていますpplのうち、sparkに提出中にこの問題について不平を言う。しかし、私はそれを一歩踏み出し、最終的にスパークするために提出されるjarファイルを構築するだけです。上に私はIntelliJ IDEを使用しており、スパークとスケーラには少し新しいです。ここで失われた。以下は

オマール

+0

SparkとKafkaのバージョンを指定できますか。 spark-streaming-kafka jarがpom.xmlに追加されていることを確認していますか? – user4342532

+0

そのカフカ0.10とスパーク1.6.2。私はSBTを使用していますので、pom.xmlについてはわかりませんし、アプリケーション全体がIntelliJを使って構築されています – omer

答えて

0

IntelliJ Error

おかげで理由は、あなたのpom.xmlとだけでなく、あなたの火花libディレクトリにspark-streaming-kafka-K.version-Sc.version.jarを追加する必要があるということであるIntelliJのエラーのスナップショットです。

+0

私はまだこの分野に新しいですので、私がmavenを使用するとpom.xmlが有効になるわけではなく、 。 – omer

+0

私はまだこの分野では新しいですが、私はmavenを使用する場合にのみpom.xmlが有効になると思います。私の場合はSBTがあります。 Btw私は各モジュールからコピーした1つのフォルダにすべてのJarファイルを用意することでIntelliJを使ってjarファイルを作成することができました(sparkとkafka - hortonworks dsomehowからですが、IntelliJがそれを理解しなかった理由はまだ分かりません。他のポストで言及されているSBT.buildソリューションはスパークに送信していましたが、それでも動作しませんでしたし、コマンドを実行するためにjarファイルフォルダを指定しなければなりませんでした。 – omer

関連する問題