libavcodec

    5

    1答えて

    MPEGストリームにユーザーデータ(Start code = 0X1B2)を挿入する方法はありますか? 私が探しているのは、簡単なツール、スクリプト、または16進エディタを使ったいくつかのヒントです。 または、ffmpeg(libavcodecとlibavformat)用のパッチがあるかもしれませんか?

    0

    1答えて

    私は何かをコピーしていることを知っていますが、それは何をするのですか(出力ファイルに何が影響するか)?それはスイッチかオプションですか?それはなぜ言葉の前にハイフンがないのですか? 私はそれがcopy streams without transcodeできることを他の質問から参照してくださいしかし、私はそれを操作できる他の可能性は何ですか? 私はffmpeg --helpを行っていますが、それに関

    2

    1答えて

    負の行サイズを持っていますAV_PIX_FMT_BGR24の形式で指定します。私は次のように私はSwsContextを作るAV_PIX_FMT_RGB24にフレームを持っている必要があります: sws_context = sws_getContext(codec_context->width, codec_context->height, codec_context->pix_fmt,

    2

    1答えて

    私は現在、私のプロジェクトにFFmpegのソースコードからLZWの圧縮と解凍の方法を実装しようとしています。私が遭遇したのは、圧縮されたデータが格納される出力バッファのサイズが、圧縮したい入力バッファのサイズよりも大きくなければならないということです。圧縮そのものとは対照的ではありませんか? lzwenc.cソースファイルの一部であるff_lzw_encode()機能にコードの次の部分があります。

    10

    2答えて

    私はFFmpegでビデオを録画していますが、少なくとも右の野球場に書かれているフレームレートを希望します。今、私は自分の入力が持っていると主張しているフレームレートを取得し、それを使って出力ビデオストリームのフレームレート(time_base)を設定します。しかし、これは時々私が得ている実際のフレームレートとは大きく異なっています(私は50fpsを要求するストリームを見ていますが、9fpsでパブリ

    1

    1答えて

    フレームデータをAVFrame構造体からバッファにコピーしようとしています。私はYUV420P形式でそれを行う方法を知っています.YデータはAVFrame frame->data[0]に格納されているので、UデータはAVFrame frame->data[1]に格納され、VデータはAVFrame frame->data[2]に格納されていますので、memcpy() Y、UおよびVデータは別々に+簡

    0

    1答えて

    ビデオストリームから画像を抽出するプログラムを作成しています。これまで私は、正しいフレームを探し、ビデオストリームをデコードし、関連するデータをAVFrame構造体に集める方法を考え出しました。私は今、JPEG画像としてデータを書き出しようとしていますが、私のコードは動作していません。私が得たコードはこちらから:私はそのコードを使用する場合はhttps://gist.github.com/RLov

    1

    3答えて

    私のコンピュータをUbuntu 16.04にアップグレードしました。今、私はOpenCVのでコンパイルされたソフトウェアを実行しようとするたびに、私は次のエラーを取得:/usr/lib/x86_64-linux-gnu/周り探し libavcodec.so.56: cannot open shared object file: No such file or directory を、私はlibav

    0

    1答えて

    私はFFMPEGのプロジェクトで作業しています。今は問題が残っています。 私がしようとしているのは、pngピクチャをmpegビデオファイルに変換することです。私はすでに画像からインフォーマントを取ることができましたが、何とか私はYUV形式の画像を変換できません。 "0x0-> 0x0は無効なスケーリングディメンション"を返します。ここで は私のコード'S: AVFrame *pFrame; AV