2017-05-08 13 views
0

現在、データフレームを使用してハイブテーブルの特定の列を計算して集計するSparkアプリケーションを開発中です。Sparkの処理済みデータフレームレコードの最速の取得方法

count()以外は、dataframes/rddの機能を使用します。処理されるレコードの数やデータフレームのレコード数を得るためには、より最適なアプローチがありますか?

特定の機能をオーバーライドするために必要なものがあるかどうかを知る必要があります。

すべての返信をいただければ幸いです。私は現在、Apache spark 1.6を使用しています。

ありがとうございます。

+0

組み込み関数を使用するのが最適な方法です。 dataframe.count()関数を使用していませんか?そうでない場合は、サンプルコードで質問を更新できますか? –

+0

データフレームのために 'select count(*)'を使うことができますが、なぜそれをしたいのか分かりません。 – philantrovert

答えて

0

別にデータフレーム/ RDDのカウント()関数を使用してから、レコードの数、処理またはレコードデータフレームの のカウント数を取得するためのより最適な アプローチがありますか?

いいえ。 RDDには、JDBCテーブルクエリやファイルスキャンなどの任意の複雑な実行計画がある可能性があるため、カウントに時間がかからないような方法はありません。

関連する問題