1
私はIntellij IDEAコミュニティエディションを持っています。私は、IntellJ用のApache Sparkの設定について助けが必要です。私は私のbuild.sbt Intellijセットアップスカラーとスカラ
.. Scala..I使用crealyticsによってGAからデータを取得したい:name := "scala-project-test"
version := "1.0"
scalaVersion := "2.11.8"
libraryDependencies ++= Seq(
"org.apache.spark" %% "spark-core" % "1.6.1",
"org.apache.spark" %% "spark-sql" % "1.6.1",
"com.crealytics" % "spark-google-analytics_2.11" % "0.8.1"
)
とanalytics.scala
import org.apache.spark.sql.SQLContext
object analytics {
val sqlContext = new SQLContext(sc)
val df = sqlContext.read
.format("com.crealytics.google.analytics")
.option("serviceAccountId", "[email protected]")
.option("keyFileLocation", "/Users/userABC/IdeaProjects/scala-project-test/xxxx.p12")
.option("ids", "ga:xxxxxx")
.option("startDate", "7daysAgo")
.option("endDate", "yesterday")
.option("dimensions", "date,browser,city")
.option("queryIndividualDays", "true")
.load()
df.select("browser", "users").show()
}
私はそこに、オブジェクトAnalyticsをRUNエラー: が見つかりません:値sc
私はスパークの設定に関して問題があると思いますが、scはSparkContextですが、私はどこにいるのかわかりません。
ヒント
のように工場を使用しています"local [*]"、SparkConfを作成している間に設定を指定することもできます。 val conf = new SparkConf()。setAppName( "App Name")。setMaster( "local")。 – Nishan