私はSpark SQL DataFramesをDropwizard Webアプリケーションを介して外部からアクセス可能にしようとしているパーケットファイルとして保存するJava Spark Streamingアプリケーション(v1.6.1)を公開しています。 2つの質問:Dropwizardを介してSpark SQLデータフレームにアクセスしますか?
1)フォームで出力を取得するには、Dropwizardが使用できます。 df.save(path)は文字列パス名のみを受け入れ、df.show()はSystem.outに書き込みます。どちらも風味がありません。私はスパークSQLのJsonサポートを直接使用したいが、それを得るためにファイルを読みたくない。 Dropwizardが戻り値の型として使用できるものを構築するには、df.javaRDD.foreachPartition()に戻す必要がありますか?
2)各Dropwizardリソース(エンドポイント)は独自のSparkContextを構築する必要がありますか、それとも上位レベルでこれらを構築して各エンドポイントで再利用することはできますか?