GoogleのBigQueryで大きなファイルを読み込む際に問題が発生しています。問題は、私が1000行未満のファイルをロードしているときに、エラーなしでロードしているときです。しかし、10000行以上のファイルをロードしているときにロードエラーが発生しています。大きなCSVファイルでBigQueryの読み込みが失敗する
Redshiftからデータをエクスポートし、それをBigQueryに読み込むことです。コマンドを「アン」私は赤方偏移のほぼすべてのオプションを使用しているが、BigQueryのは、大きなファイルのファイル形式を理解していないように思える:
1. Using "Unload" command, I am exporting Redshift table (having more than 160 columns) as a CSV file into S3
2. Transferring data to Google Cloud
3. Creating a table in BigQuery by specifying data source as Google Cloud bucket.
注:ここでは、私は仕事(ステップ)をやっている方法です。
誰でも問題が発生する可能性がありますか?
@ josh-haberman:あなたは私の問題を見ていただけますか? – andy