現在、私はSparkバージョン1.6.2をインストールしています。Apache Sparkのバージョンを1.6から2.0にアップグレード
Sparkのバージョンを最新の2.0.1にアップグレードしたいとします。既存の設定を失うことなくこれを行うにはどうすればよいですか?
ご協力いただければ幸いです。
現在、私はSparkバージョン1.6.2をインストールしています。Apache Sparkのバージョンを1.6から2.0にアップグレード
Sparkのバージョンを最新の2.0.1にアップグレードしたいとします。既存の設定を失うことなくこれを行うにはどうすればよいですか?
ご協力いただければ幸いです。
mavenまたはsbtアプリケーションでは、単にsparkの依存バージョンを変更し、2.0に従ってコードを移行するだけで、構成を失うことはありません。 sparkバイナリの場合は、configフォルダのバックアップを取ることができます。
設定に関連する変更はほとんどありません。一部のメソッドシグネチャが変更されました。新しい機能とは別に、mapPartitionsメソッドのシグネチャとメトリック/リスナーapiの変更がありました。
ダウンロードしますか? Sparkは実際にはサイトから抽出されたアーカイブから実行されるだけなので、実際には "インストールされていません"。警告:あなたのコードは、1.6.xを2.xにアップデートした後では動作しません。 –
あなたがスタンドアロンとしてsparkをインストールしたばかりの場合は、あなたのローカルに別のバージョンをインストールする必要があります。 – jtitusj