デフォルトでは、SparkはHiveとHadoopの上で動作し、軽量データベースシステムであるDerbyにデータベース変換のための命令を保存します。 Derbyは一度に1つのSparkインスタンスしか実行できないため、2番目のノートブックを起動してSparkコマンドを実行するとクラッシュします。
これを回避するには、SparkのHiveインストールをDerbyではなくPostgresに接続します。
Brew install postgres、まだインストールされていない場合。
はその後
postgresql-9.4.1212.jar
あなたのスパークをインストールするための移動
/libexec/jars/
ディレクトリにこの.jarファイルを
https://jdbc.postgresql.org/download.htmlから(あなたがjava8別名のJava 1.8を実行していると仮定)をダウンロード。
例:/usr/local/Cellar/apache-spark/2.0.1/
(スパークは、コマンドラインでbrew info apache-spark
を入力して、インストールされているMac上であなたが見つけることができる)
次はあなたのスパークインストール用/libexec/conf
ディレクトリにハイブ-site.xmlのを作成します。
例:/usr/local/Cellar/apache-spark/2.0.1/libexec/conf
これは、テキストエディタを介して行うことができます - ちょうど「.xmlの」拡張子を持つファイルを保存します。しかし、次のステップに一致している必要があります - 「ハイブ」と「mypasswordという」はあなたに理にかなって何と交換することができる
<configuration>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:postgresql://localhost:5432/hive_metastore</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>org.postgresql.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>hive</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>mypassword</value>
</property>
</configuration>
:
ハイブ-site.xmlには、次のテキストが含まれている必要があります。
は、最後にはpostgressでユーザーとパスワードを作成します。コマンドラインで以下のコマンドを実行します - それは、あなたが行われている
psql
CREATE USER hive;
ALTER ROLE hive WITH PASSWORD 'mypassword';
CREATE DATABASE hive_metastore;
GRANT ALL PRIVILEGES ON DATABASE hive_metastore TO hive;
\q
ザッツを。 Sparkは複数のJupyterノートブックで同時に動作するはずです。