2017-04-05 14 views
-1

私はapche spark(streaming)の下でmavenと作業しています。そして、スカラプログラミングで。私はコードが正しい命令をひもで締める場合apache sparkストリーミングエラー

val sc= new StreamingContext(conf , Seconds(1)) 

: は実際には、私は次の命令の小さな問題を抱えています。

これは私の完全なコード(ネットワークワード数)である:スパークストリーミングカントで動作するので、あなたがマスターに「[2]ローカル」「[*]ローカル」与えることを試みるか、してくださいすることができます。ここ

import org.apache.spark.SparkConf 
import org.apache.spark.streaming.{Seconds, StreamingContext} 
import org.apache.spark.storage.StorageLevel 

object WordCountStreaming { 
    def main(args: Array[String]): Unit = { 
    val conf = new SparkConf() .setMaster("local") 
      .setAppName("WordCountStreaming") 
      .set("spark.driver.allowMultipleContexts","true"); val sc= new 
    StreamingContext(conf , Seconds(1)) val lines = 
     sc.socketTextStream(args(0), args(1).toInt, 
    StorageLevel.MEMORY_AND_DISK_SER) sc.start() sc.awaitTermination() 
    } 
} 
+0

エラーログとコード – Kartoch

+0

インポートorg.apache.spark.SparkConf インポートorg.apache.spark.streamingを追加してください。{秒、StreamingContext} インポートorg.apache.spark.storage.StorageLevel オブジェクトWordCountStreaming {DEF .setAppName( "WordCountStreaming") .set( "spark.driver.allowMultipleContexts"、 "spark.driver.allowMultipleContexts"、 "spark.driver.allowMultipleContexts"真 "); val sc = new StreamingContext(conf、Seconds(1)) val行= sc.socketTextStream(args(0)、args(1).toInt、StorageLevel.MEMORY_AND_DISK_SER) sc.start() sc.awaitTermination } } –

+0

質問に追加することができます(私はあなたのためにしました)。 – Kartoch

答えて

0

あなたがローカルでそれを実行する場合、単一のスレッドのでマスターで複数のスレッドでそれを試してみてください。

+0

コンパイル時にエラーが発生します。私は上記の指示を残すと、それを修正しようとしました。エラーが消えるval sc = new StreamingContext(conf、Seconds(1)) –

+0

エラーログを入力してください。 –

+0

コードを見てください!返信はどうすればいいですか? – Kartoch

関連する問題