私は現在、写真やビデオを撮るためにカメラフィードにCoreImageを適用するiOSアプリを開発している、と私は思わぬ障害のビットに実行しました。 複数の出力を持つAVCaptureSession?
は、今まで私が写真をキャプチャするためにそれを使用し、それらを保存するだけでなく、CoreImageでそれらをサンプルバッファを取得し、操作する AVCaptureVideoDataOutputを使用して、簡単なプレビューを表示してきました。私はビデオ録画を実現しようとしたとき、私はAVCaptureVideoDataOutputからそれらを受け取ったとして、ビデオにSampleBuffersを書き込むことによって、それは(おそらく起こっていた他の画像に関する処理の)非常に遅いフレームレートを持っていたが。
だから私は思っていた、それはAVCaptureVideoDataOutputと同時に同じAVCaptureSessionに行くAVCaptureMoveFileOutputを持つことが可能でしょうか?
私はそれを素早く行くを与えた、と私は余分な出力を追加したとき、私のAVCaptureVideoDataOutputが情報を受信停止ことがわかりました。
私はそれが働いて得ることができる場合、私はそれは私が単に高フレームレートで動画を記録するために第二の出力を使用し、ユーザが録画を停止した後にビデオで後処理を行うことができることを意味願っています。
ご協力いただきますようお願い申し上げます。
はあなただったのAVAssetWriterを使用してイメージをMOV/MP4に書き出しますか?私はカスタムOpenGLイメージ処理エンジンを使用していますが、30fpsでも記録できます。私はCoreImageが効率のためにOpenGLに裏打ちされていると仮定しました。私はあなたを抱きしめているのはイメージの表示だと思う。画像をレンダリングするのにOpenGLを使用していますか、他のAPI(おそらくCPUベース)を使用していますか? –
実行可能なソリューションを見つけましたか? – user454083