私は開発者ではありませんので、このことについて私にご負担ください。私はGoogle BigQuery - Automating a Cron JobでPHPベースの答えに従うことができなかったので、それが私が探しているものと同じものであるかどうかはわかりません。Google CloudからBigQueryへのデッドアップデータの追加を自動化する最も簡単な方法
とにかく、私はGoogle Cloudを使用してデータを保存しています。データはそこでCSVにアップロードされます。 BigQueryを使用してジョブを実行し、BigQueryテーブルにデータを設定します。
私のコントロールできない理由のため、CSVには重複したデータがあります。だから私は基本的には、おそらく、毎日午前1時に実行し、既存のテーブルにすべての新しいデータを追加するために、毎日ETLを作成されて何をしたいか:
- 追加されていない新しいファイルを特定する(日付のようなもの=今日 - 1)
- は、一時BigQueryのテーブル
- デだますI)は、さまざまな方法でこれを行うことができます(SQL経由BigQueryのテーブルを
- 挿入に変換するステップ1からのすべてのCSV上のジョブを実行しますBigQueryテーブルに重複しない一時テーブルを追加します。
- 一時テーブルに
を削除しますので、基本的に私は、正方形の1で立ち往生している - 私は自動化された方法でこののいずれかの操作を実行する方法がわかりません。 BigQueryにはAPIがありますが、documentation on cron jobsがあり、Cloud Dataflowという名前がありますが、これらのウサギの穴を降りる前に、他の誰かがこの経験を持っていて、私にいくつかのヒントを与えることができると願っていました。私が言ったように、私は開発者ではないので、これを達成するためのより単純な方法があれば、それを実行するのが簡単になります。
誰もが提供できるお手伝いをありがとう!
これがdownvotedされている理由、私はGoogleからの文書を通じて働いていると、それは助けていないわかりません。 –