2017-01-10 9 views
1

一部のIPカメラ用のサーバー側リストリーミングサービスで作業しています。 私はLinux上でffserverを使ってストリームを提供し、Windowsではffmpegを使ってフィードを提供しています。 私はrtspを使ってカメラビデオ(H264)を取得しています。FFmpegでmjpegストリームのピクセル化を削除/減らす方法

ffmpeg -rtsp_transport tcp -i "rtsp://admin:[email protected]:554/cam/realmonitor?channel=1&subtype=0" -vcodec copy -acodec copy "http://192.168.1.101:8090/test.ffm" 

結果のビデオは非常にピクセル化であり、それは本当のイメージとは異なります

<Feed test.ffm> 
File ./test.ffm 
</Feed> 

<Stream test.mjpg> 
Feed test.ffm 
Format mpjpeg 
VideoFrameRate 3 
VideoSize 704x480 
NoAudio 
FileMaxSize 100k 
VideoHighQuality 
</Stream> 

に続き、道のffmpegのが供給しているよう

マイffserverの設定例です。次のように

カメラの構成は以下のとおりです。

Resolution: D1 (704*480) 
FrameRate: 3 
BitRate: 256k 
BitRateType: Variable 

は私が見つからないか、間違ってやっているものはありますか?任意のヘルプ

答えて

1

誰もが同じ問題を抱えています。私はこれで解決しました:

<Feed test.ffm> 
File ./test.ffm 
</Feed> 

<Stream test.mjpg> 
Feed test.ffm 
Format mpjpeg 
VideoFrameRate 3 
VideoBufferSize 80000 
VideoBitRate 512 
VideoQMin 1 
VideoQMax 10 
VideoSize 1280x720 
PreRoll 0 
</Stream> 

ストリーミングビデオは、ソースと同じ品質になりました。

0

を事前に

おかげで私はこの問題は256 KB/sがD1解像度のための貧弱なビットレートである私の意見では、ソースカメラのストリーミングであると思います。

ネットワーク帯域幅に影響を与えない場合は、カメラのビットレートを768または1024 Kb/sに増やして、その違いを確認することができます。

また、3のFrameRateは多分少しのフレームレートです。ダイナミックキャプチャストリームでは、カメラでキャプチャしているもの(風景のような静止画像や交通道路のような非常に動的な画像)に応じて、10または15フレーム/秒がより現実的な値になります。

+0

問題の1つは、携帯電話接続を使用してストリーミングしているときにカメラの帯域幅を多用することができないということです。私はそれが最良のセットアップではないことを知っていますが、それらの画像(前処理された画像と後処理された画像)の違いは巨大です。私がffserverから得ているものは、グリッドのようなものです。私は、元のものには見えない四角形の束をはっきりと見ることができます。 –

+0

カメラの設定はOKです。 FileMaxSizeを1Mなどの別の高い値に引き上げようとしていますか? (問題がどこにあるかを確認するためだけです) – Hokusai

+0

私もそれを試しました。 私は、実際の時刻に追いつくまで、ffserverからビデオをリクエストするたびにHyperlapseしか取得できません。 これは画質には役に立たない –

関連する問題