2016-07-18 11 views
0

私は大きなクエリに対するGoogleのクラウドストレージから500メガバイトのcsvファイルを読み込むことができませんが、私は私はcsv.gzする500メガバイトのcsvファイルをgzipで圧縮されているBigQueryの

Errors: 
Too many errors encountered. (error code: invalid) 
Job ID xxxx-xxxx-xxxx:bquijob_59e9ec3a_155fe16096e 
Start Time Jul 18, 2016, 6:28:27 PM 
End Time Jul 18, 2016, 6:28:28 PM 
Destination Table xxxx-xxxx-xxxx:DEV.VIS24_2014_TO_2017 
Write Preference Write if empty 
Source Format CSV 
Delimiter , 
Skip Leading Rows 1 
Source URI gs://xxxx-xxxx-xxxx-dev/VIS24 2014 to 2017.csv.gz 

このエラーを得たにGCSからcsvファイルを読み込むことができませんGFSにアップロードしてください。

答えて

0

ジョブの内部詳細は、CSVファイルの1行目を読み取る際にエラーが発生したことを示しています。さらに調査する必要がありますが、残りのファイルのスキーマに準拠していないヘッダー行がある可能性があります。ヘッダーの文字列を整数またはブール値として解析しようとしていますまたはそのようなものです。このような行をスキップするようにskipLeadingRowsプロパティを設定できます。

それ以外は、データの最初の行がインポートしようとしているスキーマと一致していることを確認したいと思います。


はまた、表示されたエラーメッセージは、残念ながら非常に助けにならないので、私はあなたがこの場合には受信したエラーがより便利にするために内部的にバグを提出してきました。

+0

私はbqブラウザツールでファイルをアップロードしているので、私はすでにオプションを1にスキップするヘッダ行を選択しました。このエラーを解決するための他の提案はありますか? – nikhil

+0

ああ、すでにヘッダー行をスキップしている場合は、ファイルの2行目を確認する必要があります。その行のデータは、ジョブで指定したスキーマと一致していますか(たとえば、正しい数のフィールド)ですか? –