2011-12-22 7 views
1

ffmpegでビデオを処理していて、aws_s3 gemでS3までビデオを焼いています。AWS_S3 ruby​​ gemタイムアウトエラーの実行が終了しました

S3Object.store("testme.mp4", open(file), 'blah', :access => :public_read) 

すべてが1ギガバイトのファイルを、私は次のエラーを受け取る上で素晴らしい作品が、::ffmpegのは、しかし、ファイルを処理した後

"Timeout::Error: execution expired". 

にのみ発生し、私は次のコードを使用します。処理せずにファイルを単独で送信すると、すべて正常です。

誰も同じような問題に遭遇しましたか?

おかげで、

SLothistype

答えて

5

私はこの問題が発生し、残念ながら持っていたサルにAWS :: S3 ::接続:: create_connection方法にパッチを当てるので、私はREAD_TIMEOUTを高めることができています。

あなたがメソッドを自分で実装する場合、あなたは

http.read_timeout = 300 # or something else higher 

を設定します私はもともと彼らはかなり尊敬されているピボタル研究所、(株)からこれを発見し、基本的に、これは偉大な解決策ではありません「と言ったが、 aws_s3宝石は何も良く公開していません。

+0

ほとんど成功していないことを試してみました...私は宝石をハックするかもしれません。返信いただきありがとうございます。 – slotishtype

+0

「ハッキング」という別名モンキーピッチングは、まさに私がやらなければならなかったことです。問題は、大きなファイルをアップロードする際に時間切れになることです。これはもっとも洗練されたソリューションではありませんが、独自のサービスをロールして宝石を携えたいのでなければ、それは必要な悪かもしれません。 – andrewpthorp

関連する問題