pyspark
1.6.Xを実行するとうまくいきます。ハイブメタストアの接続性の問題のためにpyspark 2.Xを実行できません
17/02/25 17:35:41 INFO storage.BlockManagerMaster: Registered BlockManager
Welcome to
____ __
/__/__ ___ _____/ /__
_\ \/ _ \/ _ `/ __/ '_/
/__/.__/\_,_/_/ /_/\_\ version 1.6.1
/_/
Using Python version 2.7.13 (default, Dec 17 2016 23:03:43)
SparkContext available as sc, SQLContext available as sqlContext.
>>>
しかし、私は2.xのインストールを刺激するために指すようにSPARK_HOME
、PYTHONPATH
とPATH
をリセットした後、物事は
(a)は、私は手動でダービーmetastore_db
を毎回削除する必要がすぐに南に行きます。
[GCC 4.2.1 Compatible Apple LLVM 8.0.0 (clang-800.0.42.1)] on darwin
Type "help", "copyright", "credits" or "license" for more information.
NOTE: SPARK_PREPEND_CLASSES is set, placing locally compiled Spark classes ahead of assembly.
Setting default log level to "WARN".
To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel).
17/02/25 17:32:49 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
17/02/25 17:32:53 WARN metastore.ObjectStore: Version information not found in metastore. hive.metastore.schema.verification is not enabled so recording the schema version 1.2.0
17/02/25 17:32:53 WARN metastore.ObjectStore: Failed to get database default, returning NoSuchObjectException
私はhive
機能のために/ケアを必要としません:それはこれらの不幸な警告を印刷した後ハング:
(b)のpyspark
は起動しませんが、それはうまく彼らがした場合にをを必要としているかもしれスパーク2.X. hive
の最も簡単な作業構成は、pyspark 2.X
を満足させるものですか?
警告はOKですが、空のメタストアを作成するだけです。 'SPARK_PREPEND_CLASSES'にどのライブラリを追加しますか? pysparkの初期化がハングアップするときにspark jvmプロセスのスレッドダンプを添付できますか? – Mariusz
['enableHiveSupport'](http://spark.apache.org/docs/latest/api/python/pyspark.sql.html#pyspark.sql.SparkSession.Builder.enableHiveSupport)関数を試しましたか? Hiveにアクセスしていなくても、1.6から2.xへの移行時にDataFramesに問題がありました。ビルダーでその関数を呼び出すと、私の問題が解決しました。 – santon
@サンタン私はそれにいくつかのフォローアップの質問がありますが、クレジットを付与することから始めたいと考えています – javadba