cmsamplebufferref

    10

    1答えて

    カメラの入力をリアルタイムで表示し、中間のピクセルのカラー値を取得するプログラムがあります。 // Get a CMSampleBuffer's Core Video image buffer for the media data CVImageBufferRef imageBuffer = CMSampleBufferGetImageBuffer(sampleBuffer); // Lock

    3

    1答えて

    これはちょっと疑問に思うかもしれませんが、私はメディアフォーマットとAVFoundationについて学び始めたばかりです。 私は、AVCaptureVideoDataOutputのCMSampleBufferが複数のフレームを持つことができるかどうかを調べようとしています。ドキュメントから、私が見たほとんどのサンプルコードは、CMSampleBufferが単一のフレームであるかのように見える可能性

    3

    1答えて

    私は、CVPixelBufferRefをウォーターマークをオンザフライでオーバーレイするように、CMSampleBufferRefからCVPixelBufferRefを取得しようとしています。 私はこれを達成するためにCMSampleBufferGetImageBuffer(sampleBuffer)を使用しています。私は返されたCVPixelBufferRefの結果を表示していますが、常にnul

    10

    1答えて

    captureOutputから返されたCMSampleBufferのコピーをAVCaptureAudioDataOutputSampleBufferDelegateに作成しようとしています。 私が抱えている問題は、デリゲートメソッドcaptureOutput:didOutputSampleBuffer:fromConnection:から来るフレームが、長時間にわたってCFArrayに保持された後に

    1

    1答えて

    iPhoneでavassetwriterを使用してオーディオをビデオに録音できません。私はカメラのビデオを録画することはできますが、何も問題はありませんが、オーディオを追加しようとすると、写真アルバムのビデオに表示されている時間が実際には何かを表示しています。 15:54:01などのように表示され、ビデオが短くても数字の後に作成されたすべてのビデオが増加します。私はここに他の質問で見られたiveを

    7

    1答えて

    AVAssetWriterInputのiOSドキュメントで、nilのoutputSettingsディクショナリに入力データを再エンコードしないよう指定することができます。 出力に追加されたメディアのエンコードに使用される設定。追加されたサンプルを再エンコードしないように指定するには、nilを渡します。 私は生のH.264のNALのストリームに渡すためにこの機能を利用したいが、私はAVAssetWr

    0

    1答えて

    私は、ネイティブのAnnex-B H.264ストリームを解凍するコードを書いています。ストリームの解析、SPS/PPS NALUからのCMVideoFormatDescriptionの作成、他のNALUはCMSampleBuffersのストリームから抽出します。 私は、デコーダ用のCMBlockBufferとCMSampleBufferメモリをどのように扱うかについて精神的な悩みを抱えています。私

    -2

    1答えて

    1.目的のCの逆オーディオ機能を迅速に変換して、私のプログラムにスウィフトコードを組み込むことができますが、これらのコード行は理解できません。 2.この次Objective-Cのコードです: CMSampleBufferRef sample; NSMutableArray *samples = [[NSMutableArray alloc] init]; while (sa