2017-08-26 8 views
0

Spark 2.0でPython 2/3用のスパークサービスを作成するにはどうすればいいですか?新しいサービスを作成し、それをPythonノートブックに関連付けます(Python 2とSpark 1.6)。なぜ私はデータレンガのフリー版のように私が作成しているサービスの設定を見ることができないのですか? Sparkセッション変数を作成するために、Spark 2.0で導入されたSparkSession APIを使用したいと思います。Python 2 with Spark 2.0

答えて

2

次の中でPythonとSparkのバージョンを選択できます。

a。データサイエンスエクスペリエンスで新しいノートブックを作成する:

DSX `Project` --> Overview--> `+ add notebooks` --> `Choose the language` (Python2/R/Scala/Python3) and Spark version (1.6/2.0/2.1). 

b。既存のノートブックのカーネルを変更する:あなたが独自の設定でサービスを作成していないので、

From any running notebook, on the notebook menu choose `Kernel` and then choose the language and Spark version combination of your choice. 
1

あなたは、あなたが作成しているサービスの構成を見ることができません。 BluemixとData Science ExperienceのサービスインスタンスであるApache Sparkは、共有クラスタ内で実行スロットを取得しています。その共有クラスターの構成は、IBMによって管理されます。

インスタンスのJupyterノートブックサーバーには、サポートされている言語とSparkバージョンの組み合わせごとにカーネル仕様があります。ノートブックを別の組み合わせに切り替えるには、「カーネル - >カーネルの変更 - >(何でも)」を選択します。ノートブックを作成するときは、言語とSparkのバージョンを別々に選択してください。