私はodroidボードに接続されたUSB 3.0ベースラーカメラを持っています。私はC++を使ってカメラsdk経由でフレームを取得し、ハードウェアエンコーダ(ソフトウェアエンコーダよりも速く、2.0 mp画像で30 fpsでほぼ10倍)でエンコードします。私はそれを処理するために別のPCから受信するためにrtspのネットワーク上にストリームしたい。これまで私が行ってきたことは、ハードウェアエンコーダによってフレームをエンコードし、それらをメモリまたはディスクに保持することでした。既にLinux上のネットワークにコード化されたデータをストリーミングしています
なぜこのような方法が好きなのか聞いてみると、たくさんのodroidボードがあり、それらはすべて2.0 mpg usbカメラを持ち、すべてそれらを処理してワークステーションに保存する必要があります。このワークステーションとすべてのodroidボードは同じネットワークに接続されます。
ffserverとlibvlcの両方をチェックして、このフレームをフレームエンコードされたデータでストリーミングしましたが、今のところ結果はありません。これらのストリーマは、自分の状況に適していないメディアファイルやデバイス自体にアクセスして、それ自体を取得してエンコードする必要があります。つまり、送信するデータを操作できるようにする必要があります。私はそれを準備することになります。これまでのところ、私はエンコードされたデータをフィードに与えることはできません。 (彼らがすでにそれを行うなら、それは知っていると素晴らしいだろう)
私はLinuxとストリーミングの両方で経験したことはありませんし、それを達成する方法を知らない。
私に正しい方向を向けると、私はうれしいでしょう。
ありがとうございます。
ご回答いただきありがとうございます。私が言及したように、私はこの主題の初心者とあなたの提案は私にとっては不明瞭だと思われるので、これを行うのが最も簡単な方法ですか? – Horizon1710
私は "ストリームを附属書bとして書く"と "ffmpegへのパイプ"はどこにあるのか分かりませんでした。 – Horizon1710
"ffmpeg pipe"をグーグルでしたか? – szatmary