2017-02-23 7 views
0

私はApache Spark Frameworkを使ってSparkプログラムを開発しようとしています。
クラスタなしでHiveContextをインスタンス化したいと思います。
HiveContextを使用して、クラスタを使用せずにEclipse Scala IDEでローカルに実行できますか?Eclipse IDEでSparkでハイブを実行できますか?

答えて

0

簡単に可能ですか?確かに...(強調追加)

HiveContextを使用するには、既存のハイブのセットアップを持っている必要はありません、とSQLContextに使用可能なデータソースのすべてが、まだ使用可能です。

ただし、追加のコードをコンパイルする必要があります。

HiveContextは、Hiveのすべての依存関係をデフォルトのSparkビルドに含めることを避けるため、別途パッケージ化されています。これらの依存関係は、アプリケーションにとって問題ていない場合は、HiveContextを使用すると、

をお勧めします。しかし、あなただけの任意のクラスタずにスパークを書いている場合は、そこに1.1をスパークするためにあなたを保持しているものではなく、あなたの代わりにすべきSQL関連のエントリポイントとしてSparkSessionを持つSpark 2.xを使用してください。


Eclipse IDEは重要ではありません。 IntelliJ ...またはIDEを使用せず、​​いくつかのSparkコードを含む任意のJARファイル...

+0

ありがとう!私はちょうど今、火花を学んでいるので、ちょっと混乱しました。私が知りたいのは、sparkフレームワークを使ってHiveテーブルを作成して使用することです。 – Ivan

+0

Hiveテーブルを作成するには、Hadoopクラスタが必要です(yes)。 Sparkコード自体を実行するにはクラスタは必要ありません。 –

関連する問題