2016-10-11 6 views
0

で火花ストリーミングについて警告:は版2.0.1

cfg = SparkConf().setAppName('MyApp').setMaster('local[3]') 
sc = SparkContext(conf=cfg) 
ssc = StreamingContext(sparkContext=sc, batchDuration=1) 
ssc.checkpoint('checkpoint') 

それから私はこれを繰り返しWARNました:

------------------------------------------- 
Time: 2016-10-11 10:08:02 
------------------------------------------- 
('world', 1) 
('hello', 1) 

16/10/11 10:08:06 WARN DFSClient: Caught exception 
java.lang.InterruptedException 
    at java.lang.Object.wait(Native Method) 
    at java.lang.Thread.join(Thread.java:1281) 
    at java.lang.Thread.join(Thread.java:1355) 
    at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.closeResponder(DFSOutputStream.java:609) 
    at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.endBlock(DFSOutputStream.java:370) 
    at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.run(DFSOutputStream.java:546) 
------------------------------------------- 
Time: 2016-10-11 10:08:03 
------------------------------------------- 
('world', 1) 
('hello', 1) 

をそれは何ですか?それはHDFSのWARNのように見える

これは重要な情報ですか?

完全性について2.0.0

+1

問題はhadoop-hdfs.jarがv2.7.2からv2.7.3にアップグレードされたと思います。 Spark 2.0.0は2.7.2を使用し、Spark 2.0.1は2.7.3を使用します。 –

+0

@KenjiNoguchiはい!それが理由です。 hadoop-hdfs-2.7.2.jarを2.0.0から2.0.1にコピーした後にWARNはありません! –

答えて

0

のverスパークとWARNは私は問題がアップグレードのHadoop-hdfs.jarだと思う答え

に私のコメントを移動がないことを確認してくださいI`mは、 v2.7.2からv2.7.3へ。 Spark 2.0.0は2.7.2を使用しますが、Spark 2.0.1は2.7.3を使用します。

関連する問題