1

データパイプライン(https://docs.aws.amazon.com/datapipeline/latest/DeveloperGuide/dp-importexport-ddb-part1.html)を使用してS3からDynamo DBテーブルにデータをインポートするAWSドキュメントは、S3ファイル(s3:// elasticmapreduce/samples/Store/ProductCatalog )はこの形式になります。AWSデータパイプラインを使用してDynamoDBにインポートするために必要な形式にCSVを変換

enter image description here

https://docs.aws.amazon.com/datapipeline/latest/DeveloperGuide/dp-importexport-ddb-pipelinejson-verifydata2.html?_sm_ovs=2DtvnqvHTVHW7q50vnqJqRQFVVnqZvnqMVVVVVVsV

質問は、私が最初の場所でこの形式に言って400万行のCSVを得るのですか...でしょうか?そのためのuttityはありますか?

ありがとうございました...私は良いgoogleを持っていて、何も出せませんでした。

+0

おそらく、データをまずDynamoからS3にエクスポートして(バックアップして)、いつでもそのバックアップをインポートすることができます。したがって、正しい形式でファイルを取得できます。 しかし、私が達成しようとしているDynamoワークフローへの最初のインポートではありません。 –

+0

カスタムパイプラインジョブでこれを1回実行しました。私が正確に使用したリンクやコピーを持っていないので、答えとして投稿しません。しかし、このようなものでした:https://github.com/awslabs/data-pipeline-samples/blob/master/samples/DynamoDBImportCSV/CSVtoDynamoDB.json – stevepkr84

答えて

-1

AWS Datapipelineサービスは、Dynamo DBへのCSVインポートをサポートしています。 awsコンソールからデータパイプライン用のパイプラインを作成し、「S3からDynamoDBバックアップデータをインポートする」を選択できます。 S3に格納されているCSVをDynamodbにインポートします。すでに彼応じて、これにリンクされますが、私はそれを呼び出すために望んでいた

も参照してください

http://docs.aws.amazon.com/amazondynamodb/latest/developerguide/DynamoDBPipeline.html#DataPipelineExportImport.Importing

+0

いいえ。私はそのテンプレートを使用していますが、データが必要です私が上に示したような正しいフォーマット...まっすぐなCSVだけではありません。実際にこれを試しましたか? –

関連する問題