ちょっと私のデバイス上でライブフィードを実行しようとしています。今私は3秒ごとに写真を撮りたいが、毎回それをする。シャッター音が鳴ります。これは悪いUXです。迅速なビデオからのフレームの抽出3
したがって、私はフロントカメラからライブカメラストリームを実行し、一定の時間(〜3秒)でフレームをキャプチャします。
ライブカメラフィードからフレームを抽出し、それをUIImage変数に保存するにはどうすればよいですか?
ありがとうございました!
ちょっと私のデバイス上でライブフィードを実行しようとしています。今私は3秒ごとに写真を撮りたいが、毎回それをする。シャッター音が鳴ります。これは悪いUXです。迅速なビデオからのフレームの抽出3
したがって、私はフロントカメラからライブカメラストリームを実行し、一定の時間(〜3秒)でフレームをキャプチャします。
ライブカメラフィードからフレームを抽出し、それをUIImage変数に保存するにはどうすればよいですか?
ありがとうございました!
独自のカスタムカメラを作成する場合は、AVAsaptReaderとAVAssetWriterをAVCaptureVideoDataOutputSampleBufferDelegateとともに使用して、CMSampleBuffersを販売して処理します。このアプローチを使用
、あなたは簡単にCIImageを得ることができ、フィルターなど
であなたは基本的に3秒ごとにトリガーするタイマーをしたい、キャプチャしたフレームを処理し、何をすべきかをデリゲートブロックを知ることができますことをプロセスあなたはそれを望み、残りの部分を捨てることができます(あるいは、あなたが望むならビデオに書き込む)。
この質問Recording videos with real-time filters in Swiftには、探しているサンプルコードが含まれています。代わりにバッファを書き出す代わりに、イメージとしてキャプチャします。
幸運を祈る!
非常にうまく動作します。乾杯! –