1つのs3バケットから別のバケットにファイルをコピーしたいとします。しかし、一度に1000ファイルを転送したいだけで、合計で300,000ファイルがあります。もう一つは、転送するバッチ間の時間を15秒にしたいということです。一度に1つのs3バケットから別のものにpythonを使用して1000個のファイルを転送します
私は以下のコードを書いています。これは、s3から別のものにコピーしますが、サーバーは停止しています。だからこの問題で私を助けてください。
aws s3 cp s3://sources3bucket/ s3://dests3bucket --recursive
ありがとうございます!
なぜ1000を一度にコピーしたいだけですか?これはあなたが見ている問題を回避するための試みですか?また、あなたはaws s3の同期を試してみましたか?同じ地域にバケツがありますか? – jarmod
@jarmod実際には、RDS dbにファイルをロードしたいと思います。そのためにラムダ関数を書いています。もしcsvファイルが宛先バケットにロードされていれば、ラムダ関数が呼び出されます。 RDSにロードされます。私は他のs3バケットに移動する必要があるs3バケットに格納されている350kcsvを持っています(しかしlambda関数は一度に1000ファイル(最大)しか処理できません)。そのため、ソースs3からdest s3に一度に1000個のファイルを転送しようとしています。 – rnvs1116
@jarmod、はいバケットは同じ地域にあります。 – rnvs1116