MySQLをストレージエンジンとして使用してSpark SQLからテーブルを保存しています。私のテーブルには、私はGROUP BYを使用して、カウントを追加し、個々の行をドロップして、テーブルを更新したい既存の行でGROUP BYを実行してテーブルを更新するSPARK - SQL?
+-------------+----------+
| count| date|
+-------------+----------+
| 72|2017-09-08|
| 84|2017-09-08|
+-------------+----------+
のように見えます。だから私の出力は次のようになります
+-------------+----------+
| count| date|
+-------------+----------+
| 156|2017-09-08|
+-------------+----------+
Spark SQLを使って可能な限り、それを実現する方法はありますか? MySQLでは
レコードが増加しているので、テーブルを削除して新しいテーブルを作成することはできません。高価な操作になります。 – jdk2588
私は最初に更新してから削除するほうが速いと思います。あなたのテーブルにはユニークな列がありますか? – jophab
これは一意の列を持たない集約ビューです – jdk2588