私はtheir examplesとgetting started tutorialsのいくつかを見て、スパークに慣れ親しんでいます。私は、タブで区切られた2つの列の数値を含むテキストファイルをロードし、そこからデータフレームを作成したいと考えています。私は、以下のコマンドを使用してそれを行うには期待していた。sparkでDataFrameを作成できませんか?
>>> data = sc.textFile("amazon.txt")
>>> df = data.map(lambda r: [int(x) for x in r.split("\t")])
>>> df = df.toDF()
しかし、私は最後のコマンドを実行すると、エラーがスローされます。
u'Unable to locate hive jars to connect to metastore. Please set spark.sql.hive.metastore.jars.'
フルスタックトレース:
Traceback (most recent call last): File "<stdin>", line 1, in <module> File "/spark-2.0.1-bin-hadoop2.7/python/pyspark/sql/session.py", line 57, in toDF
return sparkSession.createDataFrame(self, schema, sampleRatio) File "/spark-2.0.1-bin-hadoop2.7/python/pyspark/sql/session.py", line 526, in createDataFrame
jdf = self._jsparkSession.applySchemaToPythonRDD(jrdd.rdd(), schema.json()) File "/spark-2.0.1-bin-hadoop2.7/python/lib/py4j-0.10.3-src.zip/py4j/java_gateway.py", line 1133, in __call__ File "/spark-2.0.1-bin-hadoop2.7/python/pyspark/sql/utils.py", line 79, in deco
raise IllegalArgumentException(s.split(': ', 1)[1], stackTrace) pyspark.sql.utils.IllegalArgumentException: u'Unable to locate hive jars to connect to metastore. Please set spark.sql.hive.metastore.jars.'
に基づきます私はspark.sql.hive.metastore.jars
と呼ばれるものを設定する必要があるように見えるerorrメッセージですが、これが何であるか、どこに設定するか分かりません。
データフレームを作成できるように、誰でもこの問題を解決するための正しい方向を指摘できますか?
「X.X.X」にはどのような値を設定しますか?私は使用しているSparkのバージョンである '2.0.1'を使用していますが、動作していないようです。 –
これはあなたのHiveバージョンになります。 0.14.0のようなもの – user7005835