swscale

    1

    1答えて

    Windowsでffmpegを使用してH264ストリームをハードウェアアクセラレーションでデコードする方法の簡単な例を検索しましたが、何も見つかりませんでした。 ffmpegでdxva2を使用して、ハードウェアアクセラレーションを使用する必要があることは知っています。 postで提供されているサンプルプロジェクトのおかげで、H264をCPU上でffmpegでデコードし、NV12形式をRGBAに変換

    2

    1答えて

    負の行サイズを持っていますAV_PIX_FMT_BGR24の形式で指定します。私は次のように私はSwsContextを作るAV_PIX_FMT_RGB24にフレームを持っている必要があります: sws_context = sws_getContext(codec_context->width, codec_context->height, codec_context->pix_fmt,

    -1

    1答えて

    ピクセルは行優先順位で一度に1チャンネルずつ格納される配列にAVFrameをコピーすることを検討しています。 詳細: 私はビデオからフレームを読み取るためにFFMPEGのAPIを使用しています。私はframe_arr、ピクセルの範囲にvid_frameの全てをコピーする必要が unsigned char* frame_arr = new unsigned char [cdc_ctx->width

    0

    1答えて

    私はFFMPEGのプロジェクトで作業しています。今は問題が残っています。 私がしようとしているのは、pngピクチャをmpegビデオファイルに変換することです。私はすでに画像からインフォーマントを取ることができましたが、何とか私はYUV形式の画像を変換できません。 "0x0-> 0x0は無効なスケーリングディメンション"を返します。ここで は私のコード'S: AVFrame *pFrame; AV

    0

    1答えて

    私はYUV420pイメージをC++でRGB24に変換し、C#でバイト配列からビットマップを作成しようとしています。 私の画像サイズは1920 w * 1020 hで、ffmpegデコーダはlinesizes = {1920、960、960}のデータに対して3つのプレーナーを与えます。しかし、sws_scaleの後、私はlinesize = 5760の1つのプレーンだけでRGB画像を取得しています。

    0

    1答えて

    私はswscale + x264を使ってRGB画像のシーケンスをh264ストリームにエンコードしていました。入力画像(赤色)のRGB値がすべて(255, 0, 0)である場合、swscale + x264によって出力されるYUVは(81, 90, 240)です。 swscaleを使用することにより、このYUV値を元のRGB値に戻すことができます。しかし、私はPotPlayerを使ってストリームを再