私は入力としてcassandra主キーを受け付けるexecを持っています。データローカリティを利用してSpark + Cassandraを使用してジョブを実行
Cassandra Row: (id, date), clustering_key, data
./exec id date
各execは、特定の主キーに対して複数の行にアクセスできます。データの実行後、結果はDBに格納されます。
私はそのような複数のexecを持っており、データを格納するノードでexecを実行したいと思います。スパークを使ってこれをどのように達成できますか?
また、execが[確認のために]実行されているノードIPを受信するにはどうすればよいですか。
注:幹部で、私は、クエリを実行することでデータにアクセスしています:
select data from table where id = t_id and date = t_date and clustering_key = t_clustering_key