2017-10-06 10 views
0

私はこのチュートリアルhereに従って、Sparkライブラリを使用してPythonプログラミング用にEclipseを構成しました。Sparkライブラリを使用してPythonプログラムを実行しているEclipseのエラー

enter image description here

の操作を行います。

# Imports 
# Take care about unused imports (and also unused variables), 
# please comment them all, otherwise you will get any errors at the execution. 
# Note that neither the directives "@PydevCodeAnalysisIgnore" nor "@UnusedImport" 
# will be able to solve that issue. 
#from pyspark.mllib.clustering import KMeans 
from pyspark import SparkConf, SparkContext 
import os 

# Configure the Spark environment 
sparkConf = SparkConf().setAppName("WordCounts").setMaster("local") 
sc = SparkContext(conf = sparkConf) 

    # The WordCounts Spark program 
    textFile = sc.textFile(os.environ["SPARK_HOME"] + "/README.md") 
    wordCounts = textFile.flatMap(lambda line: line.split()).map(lambda word: (word, 1)).reduceByKey(lambda a, b: a+b) 
    for wc in wordCounts.collect(): print wc 

私はこのようなエラーのリストを取得します。私は、このサンプル・プログラムを実行したら、私は、しかし...あらゆる問題なく

を段階的に続きます私は、パスを変更するか、それを動作させるために他の設定に従わなければなりませんか?

答えて

1

readmeファイルが保存されているディレクトリと同じディレクトリにpysparkシェルを実行している場合は、spark home pathを指定する必要はありません。

スパークホームパスと '/'を削除してみます。

textFile = sc.textFile("README.md") 

または

textFile = sc.textFile(os.environ["SPARK_HOME"] + "README.md"). 

分割条件を定義します。空白区切りまたは「#」任意の値分割区切り

lambda line: line.split(" ") 
関連する問題