2017-02-05 17 views
1

jupyterでpysparkカーネルを使用しようとしています。私は両方に新しく、jupyterで動作するpyspark 2.1.0を手に入れようとしていた。jupyterを持つpysparkカーネル - カーネルが見つかりません

64ビットのUbuntu 16.04 LTSにpyspark 2.1.0とanaconda3をインストールしました。 私は、セットアップの.bashrcに以下の輸出をしました:

私は〜/ .jupyter/profile_spark/

import os 
import sys 

spark_home = os.environ.get('SPARK_HOME', None) 
sys.path.insert(0, spark_home + "/python") 
sys.path.insert(0, os.path.join(spark_home, 'python/lib/py4j-0.8.2.1-src.zip')) 

filename = os.path.join(spark_home, 'python/pyspark/shell.py') 
exec(compile(open(filename, "rb").read(), filename, 'exec')) 

spark_release_file = spark_home + "/RELEASE" 

if os.path.exists(spark_release_file) and "Spark 2.1.0" in open(spark_release_file).read(): 
    pyspark_submit_args = os.environ.get("PYSPARK_SUBMIT_ARGS", "") 
    if not "pyspark-shell" in pyspark_submit_args: 
    pyspark_submit_args += " pyspark-shell" 
    os.environ["PYSPARK_SUBMIT_ARGS"] = pyspark_submit_args 

として "00-pyspark-setup.py" ファイルを作成した

export SPARK_HOME=/usr/lib/spark 
export PYSPARK_SUBMIT_ARGS="--master local[2] pyspark-shell" 
export SBT_HOME=/usr/share/sbt-launcher-packaging/bin/sbt-launch.jar 
PYTHONPATH=/usr/lib/spark/python/lib/py4j-0.10.4-src.zip 
export PYTHONPATH=$SPARK_HOME/python:$PYTHONPATH 
export PATH=$PATH:$SBT_HOME/bin:$SPARK_HOME/bin:$SPARK_HOME/sbin 
export PATH=$PATH:/home/user1/course/research_methods/spin/Spin/Src6.4.6 
export PYSPARK=/usr/lib/spark/bin 
export PATH=$PATH:$PYSPARK 

export PYSPARK_PYTHON=/home/user1/anaconda3/bin/python3 
export PYSPARK_DRIVER_PYTHON=/home/user1/anaconda3/bin/jupyter 
export PYSPARK_DRIVER_PYTHON_OPTS="notebook" 

# added by Anaconda3 4.2.0 installer 
export PATH="/home/user1/anaconda3/bin:$PATH" 
export LD_LIBRARY_PATH=/usr/local/hadoop/lib/native/:$LD_LIBRARY_PATH 

私は、スクリプトを実行すると、このpyspark installation guide

にお勧め、それは次の出力を生成します。

$ ./00-pyspark-setup.py 
Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties 
Setting default log level to "WARN". 
To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel). 
Welcome to 
     ____    __ 
    /__/__ ___ _____/ /__ 
    _\ \/ _ \/ _ `/ __/ '_/ 
    /__/.__/\_,_/_/ /_/\_\ version 2.1.0 
     /_/ 

Using Python version 3.5.2 (default, Jul 2 2016 17:53:06) 
SparkSession available as 'spark'. 
$ 

、私は次のメタデータを持っているjupyterで.ipynbファイル開くとき:

"metadata": { 
    "kernelspec": { 
    "display_name": "PySpark", 
    "language": "python", 
    "name": "pyspark" 
    }, 
    "language_info": { 
    "codemirror_mode": { 
    "name": "ipython", 
    "version": 3 
    }, 
    "file_extension": ".py", 
    "mimetype": "text/x-python", 
    "name": "python", 
    "nbconvert_exporter": "python", 
    "pygments_lexer": "ipython3" 
    "version": "3.5.2" 
    } 

を私は次のエラーを取得する: "私はPySparkに一致するカーネルを見つけることができませんでした。カーネルを選択してください:「 A 『カーネル』のエラーメッセージの横のドロップダウンリストにのみ、次の2つのオプションがある 『パイソン[condaルート]』と 『Pythonの[デフォルト]』いいえpysparkオプション

できます。誰も私がpysparkを利用できるように変更する必要があるものをお勧めし

おかげ

答えて

1

.bashrcの - ?> py4j-0.10.4-src.zip

00-pyspark-setup.py - 異なるpy4j

の使用> py4j-0.8.2.1-src.zip

関連する問題