Spark 2.0
を学習したいので、私はdev(Scalav2.11
)環境をセットアップしようとします。完全な機能(クラスターを含む)スパーク学習開発を1台のマシンにセットアップする方法は?
スパークは分散環境を使用します。マシンごとに複数の別々のマシン間で1つのクラスタ上で作業する。しかし、私は一つしか機械とそれを持っていない私のテスト目的のための多くのマシンを持っていない。
私はパフォーマンスの後ではありません、私はSparkを学ぶことができるように、動作するクラスタをシミュレートするものが必要です。
複数のマシンにアクセスしなくても、完全に機能するSparkベースの環境でコードを学習したり書くことなく、Sparkアプリケーションを学習し開発するための開発環境を設定するにはどうすればよいですか?
すぐに使えるものを探しているなら、clouderaやhortonworksからサンドボックスVMをダウンロードできます。 –
最初に起動する最も良い方法は、Sparkの_local mode_を使用することです。セットアップは不要です。すべては、メイン/テストアプリケーション内またはスパークシェル内で実行されます。http://spark.apache.org/docs/latest/programming-guide.html#using -the-shell –
ローカルモードは、3つのノードを持つ典型的なクラスタを起動できることを意味しますか? – mCs