この質問はスタックオーバーフローで何回か尋ねられましたが、私が読んでいる回答のどれも私が経験していることを解決することはできません。AWS Kinesis FirehoseがRedshiftにデータを挿入していません
私はMySQLテーブルをKinesis StreamsにコピーするBoto3スクリプトを持っています。もう一方の端には、Kinesisストリームからストリームを読み込んでS3に書き込むためのKCL Node JSスクリプトがあります。ここまでは順調ですね。
キネシスFirehoseとRedshiftとS3を同じ地域にセットアップしました。私はS3から読んでRedshiftに書き込むためにFirehoseを設定します。 Firehoseで提供されたデモデータでテストしたとき、すべていいです。
次に、MySQLテーブルのすべての列を持つRedshiftテーブルをセットアップします。 Redshiftでは一部のデータ型はサポートされていないため、別のデータ型を使用しましたが、Firehoseが問題なくRedshiftテーブルに書き込むことができると確信していました。
以下は、MySQLテーブルのスクリーンショットです。
そして、以下の赤方偏移テーブルのスクリーンショットです。
あなたが見ることができるように、データ型はすべて同じではありません。私はRedshiftがすべてのデータ型がMySQLテーブルと同じでなければならないレベルに非常に敏感であるのだろうかと思います。
ちなみにFirehost COPYコマンドでJSON 'auto'と指定してログを有効にしました。残念ながら、エラーは記録されません。
したがって、S3でファイルを取得していますが、赤方偏移ではありませんか? –
はい。私の質問の詳細で説明したように、私はNode JS KCLスクリプトを使ってファイルをS3に取得しました。 –
ファイルがS3に入ったら、COPYコマンドを手動で試して、少数のファイルに対して赤色シフトにデータを取り込めるかどうかを確認します。 –