私は非常にApache Sparkを新しくしました。
ローカルWindowsマシンにspark 2.0.2を既に設定しています。 私はsparkで「単語数」の例を使っています。
今、SQLクエリを実行する際に問題があります。 私は同じものを探しましたが、適切な指針を得ていません。Apache Sparkでsqlクエリを実行する方法
大変助かりました!
ありがとうございました!
sqlContext
を参照していないのではなく、
spark
スパーク2.xで
私は非常にApache Sparkを新しくしました。
ローカルWindowsマシンにspark 2.0.2を既に設定しています。 私はsparkで「単語数」の例を使っています。
今、SQLクエリを実行する際に問題があります。 私は同じものを探しましたが、適切な指針を得ていません。Apache Sparkでsqlクエリを実行する方法
大変助かりました!
ありがとうございました!
sqlContext
を参照していないのではなく、
spark
スパーク2.xで
:
spark
.read
.format("jdbc")
.option("url", "jdbc:mysql://localhost:3306/mydb")
.option("driver", "com.mysql.jdbc.Driver")
.option("dbtable", "mydb")
.option("user", "root")
.option("password", "")
.load()
だから、あなたはそれを成し遂げるためにこれらのことを行う必要があり、
をスパークで2.0.2では、SparkContextインスタンスとsqlContextインスタンスを含むSparkSessionを持っています。
そのための手順は次のようになります。
ステップ1:あなたのケースMySQLでデータベースから負荷: SparkSession
val spark = SparkSession.builder().appName("MyApp").master("local[*]").getOrCreate()
ステップ2を作成します。
val loadedData=spark
.read
.format("jdbc")
.option("url", "jdbc:mysql://localhost:3306/mydatabase")
.option("driver", "com.mysql.jdbc.Driver")
.option("mytable", "mydatabase")
.option("user", "root")
.option("password", "toor")
.load().createOrReplaceTempView("mytable")
ステップ3:今あなたがSqlDatabaseでやるだけのようなあなたのSQLQueryを実行することができます。
val dataFrame=spark.sql("Select * from mytable")
dataFrame.show()
P.S:あなたはデータフレームのAPIやデータセットのAPI場合は、しかし、あなたがドキュメントを通過する必要があるそれらのためのより良いを使用する場合、それが良いだろう。
文書へのリンク:https://spark.apache.org/docs/2.0.0/api/scala/index.html#org.apache.spark.sql.Dataset
あなたの問題は何ですか?何かエラーが出ていますか? –
エラー:見つからない:value sqlContext –
以下のコマンドを実行中に上記の例外が発生しています –