私は現時点で完全なvideo-streaming
機構を持っています(GDCL Mux/Demuxフィルタを除く)。構造はこのようなものです。ビデオストリームの実際の録画日時を取得する適切な方法は何ですか?
ストリーマーグラフ:
File Source Filter -> GDCL MP4 Demuxer -> My RTP Network Renderer
レシーバーグラフ:
My RTP Network Listener -> GDCL MP4 Muxer -> My Video Renderer
私はRTSP
プロトコルを使用して、いくつかのカスタムメソッドによって必要な起動パラメータを渡すことはありません。分割されたファイルを連続してストリームします。これを行うには、ファイルの最後に達するたびに次のファイルのために新しいStreamer Graph
を作成します。しかし、次のStreamer Graph
に同じUDP
ポートを使用してください。したがって、My RTP Network Listener
は、新しいStreamer Graph
が構築されて実行を開始するとすぐにリスニングしてストリームを継続します。
現時点ではRTCP
のような別の通信方法は使用していません。オーディオストリーミングが不完全なので、私はまだオーディオとビデオの同期の問題はありません(まだ!)。ここで
は、重要な部分は、私が欲しいのは、ストリームから実際の記録の日付/時刻にの情報を得ることです
ています。 MP4ファイル名は日付/時刻形式です。だから、ファイルの録音がいつ始まったのか分かります。
Recording Start Date/Time Value + Media TimeStamp Value Of The Stream
2つの録画ファイルの間にギャップがある場合はどうなりますか?新しいStreamer Graph
をビルドすると、タイムスタンプは再び0からカウントされます。
ここで質問
だから来て、状況のこの種を処理するための適切な方法は何ですか?私はRTCP
がオーディオビデオの同期に使用されていることを知っています。それも私の場合に使用することはできますか?または、RTCP
のような2番目のUDP
ポートを使用してカスタムの日付/時刻情報メッセージを送信する必要がありますか?
問題を解決する複数の解決策が考えられます。しかし、いつもより適切な方法があれば、私はこのために醜い解決策を使用したくありません。