iPhoneでローカルmpeg-4ビデオのフレームをデコードする最速の方法を探しています。私は、単に10番目のフレームごとのピクセルの輝度値に興味があります。私はどこにビデオをレンダリングする必要はありません。iPhoneでビデオフレームをデコードするGPU
私はffmpeg、AVAssetReader、ImageAssetGenerator、OpenCV、およびMPMoviePlayerを試しましたが、すべて遅すぎます。私が得ることができる最も速いスピードは〜2x(分でスキャンされたビデオの2分)です。私は10xに近いものを望みます。
私の試みではGPUを使用しなかったと仮定して、GPU上で動作するもので自分の目標を達成する方法はありますか? OpenGLは主にレンダリング出力のようですが、着信ビデオのフィルタとして使用されています。多分それはオプションですか?
ありがとうございます!
私はそのサンプルを入手するためにWWDC 2011出席者である必要があるように見えます。私はまだ効果的にこれがリアルタイムのトランスコードであると心配しています。私は15倍速(1分で15分のビデオスキャン)を得たいと思っています。ボトルネックはフレームのデコードにあると思います。 @サイモン@ –
。d - ここでは、ChromaKeyの例で使用しているテクニックについて説明しています。http://stackoverflow.com/a/9704392/19679、GPUImageコードを取得して、動画をエンコードする際にこれを確認できます。私は、高速テクスチャのアップロードを使用するために私の映画の読書コードをまだ更新していない。 iOSデバイスにはH.264をデコードするための専用ハードウェアが搭載されているため、iOS 5.0の高速テクスチャアップロードでAVFoundationを使用するよりも、映画の解析を高速化することはできません。 –
AppleのRosyWriterのサンプルコードでは、このAVCaptureSession - > OpenGLリンクも示しています。 [here](https://developer.apple.com/library/ios/samplecode/RosyWriter/Introduction/Intro.html)を参照してください。 – bcattle