Google Cloud Storage(GCS - > Tempテーブル - >メインテーブル)からBigQueryにテーブルを100個ロードする必要があります。 BigQueryにデータを読み込むためのPythonプロセスを作成し、AppEngineでスケジュールしました。 AppEngineのタイムアウトは最大10分です。私は非同期モードでジョブを提出し、後でジョブの状態を確認しています。私は100台のテーブルを持っているので、ジョブの状態をチェックする監視システムを作成する必要があります。Google Cloud StorageからBigQueryにデータを読み込む
ジョブの状態を確認するために、いくつかのテーブルと一連のビューを維持する必要があります。
操作プロセスは少し複雑です。もっと良い方法はありますか?
おかげ
あなたは多分何かを向上させることができ、あなたが行う手順を要約してください可能性があります。 – Pentium10
appengineでpythonプロセスをどのように作成し、それをスケジュールして、私がbigqueryで同じことをしているのかを段階的に教えてください。私はcsvファイルをGoogleバケットからbigqueryテーブルに読み込みます。 – LondonUK