2017-11-02 7 views
-2

コード私は取得しています入力した後Apacheの火花コード問題

スカーラ>輸入org.apache.spark.SparkContext 輸入org.apache.spark.SparkContext

scala> import org.apache.spark.SparkContext. 
| import org.apache.spark. 
<console>:2: error: identifier expected but 'import' found. 
import org.apache.spark. 
^ 

scala> object SparkWordCount { 
| def main(args: Array[String]) { 
|  val sc = new SparkContext("local", "Word Count", "/usr/local/spark", Nil, Map(), Map()) 
|  val input = sc.textFile("C:\\x.txt") 
|  Val count = input.flatMap(line ? line.split(" ")) 
|  .map(word ? (word, 1)) 
|  .reduceByKey(_ + _) 
|  count.saveAsTextFile("C:\\x1.txt") 
|  System.out.println("OK"); 
| } 
| } 

を実行していない:

<console>:48: error: overloaded method constructor SparkContext with alternative 
s: (master: String,appName: String,sparkHome: String,jars: Seq[String],environment:scala.collection.Map[String,String])org.apache.spark. SparkContext <and> (master: String,appName: String,conf:org.apache.spark.SparkConf)org.apache.spark.SparkContext <and>()org.apache.spark.SparkContext <and> 
    (config: org.apache.spark.SparkConf)org.apache.spark.SparkContext 
cannot be applied to (String, String, String, scala.collection.immutable.Nil.type, scala.collection.immutable.Map[Nothing,Nothing], scala.collection.immutable.Map[Nothing,Nothing]) 
     val sc = new SparkContext("local", "Word Count", "/usr/local/spark",Nil, Map(), Map()) 




<console>:50: error: not found: value Val 
     Val count = input.flatMap(line ? line.split(" ")) 
     ^
<console>:53: error: ambiguous reference to overloaded definition,both method count in object functions of type (columnName: String)org.apache.spark.sql.TypedColumn[Any,Long] and method count in object functions of type (e: org.apache.spark.sql.Column)org.apache.spark.sql.Column match expected type ? count.saveAsTextFile("C:\\x1.txt") 

また、インポートしようとしているときテキストファイル、それは取っていない場所

私は単一でtryngい
scala> val file = sc.textFile("c:\\x.txt") 
<console>:46: error: not found: value sc 
    val file = sc.textFile("c:\\x.txt") 
      ^

「/」私はその後、

何を「//」を示すないでしようとしたとき、私は、エラー無効なエスケープ文字を取得しています
scala> val file = sc.textFile("c:\x.txt") 
<console>:1: error: invalid escape character 
val file = sc.textFile("c:\x.txt") 
        ^

scala> 

iは

+0

あなたが火花シェルを使用している作品を期待してみてください?実際にあなたのコードには非常に多くのことが間違っています。 – eliasah

+0

スパークシェルではなく、彼が使っているScalaコンソールです。最初にスパークシェルでコードを試してみてください – maxmithun

答えて

0

あなたのコードでは、多くのバグがWindows上で火花をインストールしている?私はなぜこれが起こっている理解していないです、私を助けています。次のコード

import org.apache.spark._ 
object SparkWordCount { 
    def main(args: Array[String]) { 
     val conf = new SparkConf() 
     val sc = new SparkContext(conf.setMaster("local").setAppName("Word Count"))) 
     val input = sc.textFile("C:\\x.txt") 
     val count = input.flatMap(line => line.split(" ")) 
     .map(word => (word, 1)) 
     .reduceByKey(_ + _) 
     count.saveAsTextFile("C:\\x1.txt") 
     System.out.println("OK"); 
    } 
} 

私はそれが

関連する問題