私は104M行のmysqlテーブルを持っています。 streaming insertsの方法を使用すると、およそ3時間かかり、費用は5ドルです。BigQueryにmysql結果を得る最速の方法
mysqlテーブルをクエリまたはコピーしてBQに入れる最も速い方法は何ですか?たとえば、GDB上のcsvファイルに直接mysqlデータベース(GCPにはない)をストリーミングし、BQからcsvファイルをロードする方法はありますか?我々は、loading csv files from GCS into BQがかなり速いことに気づいた。
外部のmysqlテーブル(または外部データベース)からBQへのデータをできるだけ速く取得する方法はありますか?
更新は:我々は(我々はすでにやる)増分フィードを実行して、我々のデータサイズを小さくしようとしていないことに注意してください。この質問は、外部データベースからBQに100M行のデータを得る最速の方法(15GBと言う)をどうすべきかを尋ねるだけです。
私はこれまでやったことはありませんが、テーブルをCSV形式でエクスポートしてGCSにアップロードするのが最速の方法だと思います。また、Cloud Dataflowを使用してカスタムシンクを作成してMySQLと会話することもできますが、それはおそらくそれほど価値がありません。 –
@GrahamPolleyどのストリーミング・ストリーミング・インサートよりも速く/どうしてこのようなベンチマークが可能ですか? – David542
いいえ、ストリーミングは速くなりますが、ストリーミング・インサートは覚えておいてください。また、ストリーミングで指数関数的なバックオフとリトライを行う必要があります。 –