通常、毎日取得したデータの範囲は10万レコード以上にする必要があります。しかし、2つのbigquery転送(オーナーIDごとに1つずつ)をセットアップするときは、同じサフィックスを使用して、データが同じテーブルに移動します。転送には大量のデータがありません。Setup 2 youtube bigquery transfer(オーナーIDごとに1つ)、同じサフィックスを使用して、データが同じテーブルに移動します。転送に大量のデータがありません
転送ステータスは正常に表示されますが、いつかは100,000+レコードの代わりに4000-5000レコードしか得られません。しかし、いつか私は10万レコードを持っています。
質問1:
が可能BigQueryの転送はデータのみの部分的な転送が終了したことですか?私の理解はbigquery転送は "すべてまたはなし"です。成功すると、すべての転送が完了します。失敗した場合、ゼロレコードが転送されます。
しかし、一部のケースでは、bigqueryが失敗しましたが、ステータスが完全であることがわかります。
質問2:私は2つの転送、同一のテーブルにデータを送信し、両方の転送を設定する際
、私は非常故障率増加を見ることができます。
2つの転送が何らかの形でプロセスで競合する可能性はありますか?