Amazon EC2(Windows/t2.Large)サーバーは〜200KファイルをS3にアップロードします(バケットはサーバーと同じ地域にあります)。 〜100ファイル数時間後には、明らかな理由がなく、1分に30ファイルまでアップロードが遅くなります。数時間プロセスを一時停止すると、再び高速化されます。 Amazonはこのトラフィックに制限を設けていますか?スピード損失の他の理由は?あなたはおそらく、あなたのインスタンスのCPUのクレジットが不足しているAmazon EC2 - > S3トラフィック制限
string S3_KEY = S3TargetFileName;
S3_KEY = S3FolderName + "/" + S3_KEY;
S3_KEY = S3_KEY.ToLower();
PutObjectRequest request = new PutObjectRequest()
{
CannedACL = S3CannedACL.PublicRead,
BucketName = BucketName,
Key = S3_KEY,
FilePath = LocalFullPath
};
var client = GetS3Client();
client.PutObject(request);
これが一度しかない、まれにしか必要ない場合は、[AWS Command-Line Interface(CLI)](http://aws.amazon.com/cli/)を使用することをお勧めします。これはファイルを並列にコピーできる 'aws s3 sync'コマンドを持っています([config documentation](https://github.com/aws/aws-cli/blob/develop/awscli/topics/s3-config.rst参照) )。 –