私は2つのWebカメラを持っています。それらのストリームを1つのライブストリーミングプレビューにマージして、画面に表示したいと思います。2つのWebカメラを1つのライブストリーミングに統合 - プログラムで
私はC#/ Javaプログラミングに熟練していますが、これを達成するのに役立つフレームワークを見つけるのを手伝ってもらえますか?
おかげで、あなたが側で2本のビデオ側を可視化でのみ目指している場合は
私は2つのWebカメラを持っています。それらのストリームを1つのライブストリーミングプレビューにマージして、画面に表示したいと思います。2つのWebカメラを1つのライブストリーミングに統合 - プログラムで
私はC#/ Javaプログラミングに熟練していますが、これを達成するのに役立つフレームワークを見つけるのを手伝ってもらえますか?
おかげで、あなたが側で2本のビデオ側を可視化でのみ目指している場合は
、私はDirectShow.NetとGMFBridge toolkit見てみることをお勧めします。パッケージに含まれているサンプルプロジェクトGMFPlay
についてGMFBridgeサイトから
引用:
GMFBridge:GMFPlayは、あなたが「マージ」したい場合は1つのムービー
として複数のクリップを表示する方法を示しています両方のストリーム(ある透明度のレベルの上に1つずつ描画する場合)this codeproject sampleを試すことができます(ビジュアライゼーションの場合のみDirectShowも使用します)。
実際に新しいビデオストリームを作成してビジュアル化するだけでなく、DirectShowをミキシングフィルタと組み合わせて使用すると、たとえばMedialooks-Video-Mixerのように見えます。
本当に助けていただきありがとうございます。本当に助かりました! –
チェックアウトこのリンク:GMFPlayはパッケージに含まれているサンプルプロジェクトについてGMFBridgeサイトから https://codedump.io/share/fbX1tYFjPhdw/1/merging-two-web-cameras-streaming-into-a-single-live-streaming---programmatically
http://www.codeproject.com/KB/directx/DirectShowVMR9.aspx
引用:
GMFBridge:GMFPlayは、1つのムービーとして複数のクリップを表示する方法を示しています 両方のストリームを(トランスペアレンシーレベルを指定して他のストリームを重ねて)マージする場合は、このcodeprojectサンプルを試してみることもできます(ビジュアライゼーションの場合のみDirectShowも使用します)。
実際に新しいビデオストリームを作成して視覚化するだけでなく、DirectShowとミキシングフィルタを組み合わせて使用することもできます。例えば、Medialooks-Video-Mixerは有望です。
2つのカメラを組み合わせてストリームをサーバー(SRSなど)に送信し、ffplayを使用してこれをリアルタイムで表示することができます。
.\ffmpeg.exe -f dshow -i video="LRCP USB2.0" -i .\right.avi -filter_complex "nullsrc=size=1280x1440 [base];[0:v] setpts=PTS-STARTPTS,scale=1280x720 [upper];[1:v] setpts=PTS-STARTPTS,scale=1280x720 [lower];[base][upper] overlay=shortest=1 [temp1];[temp1][lower] overlay=shortest=1:y=720" -c:v libx264 -preset:v ultrafast -tune:v zerolatency -f flv rtmp://192.168.1.136:1935/live/stream
このimage exampleのように、リアルタイムで合成ビデオを見ることができます。
まだ明確でない場合は教えてください。
「マージ」はどうですか? 2つのビデオストリームを並べて表示したいのですか、他の種類のビデオを覚えていますか? –
両方のカムからストリーミングアレイを読み込み、両方のアレイをマージするアルゴリズムを適用して、単一のワイドレンジビューを提供し、ライブとして表示するライブ –
私を助けてくれますか? –