2016-10-18 9 views
2

現在、私はSparkバージョン1.6.2をインストールしています。Apache Sparkのバージョンを1.6から2.0にアップグレード

Sparkのバージョンを最新の2.0.1にアップグレードしたいとします。既存の設定を失うことなくこれを行うにはどうすればよいですか?

ご協力いただければ幸いです。

+0

ダウンロードしますか? Sparkは実際にはサイトから抽出されたアーカイブから実行されるだけなので、実際には "インストールされていません"。警告:あなたのコードは、1.6.xを2.xにアップデートした後では動作しません。 –

+0

あなたがスタンドアロンとしてsparkをインストールしたばかりの場合は、あなたのローカルに別のバージョンをインストールする必要があります。 – jtitusj

答えて

0

mavenまたはsbtアプリケーションでは、単にsparkの依存バージョンを変更し、2.0に従ってコードを移行するだけで、構成を失うことはありません。 sparkバイナリの場合は、configフォルダのバックアップを取ることができます。

0

設定に関連する変更はほとんどありません。一部のメソッドシグネチャが変更されました。新しい機能とは別に、mapPartitionsメソッドのシグネチャとメトリック/リスナーapiの変更がありました。

関連する問題