opencvのオプティカルフローで見たすべての実装は、ビデオをフレームの配列として使用し、各画像にオプティカルフローを実装します。これは、画像をN×Nブロックにスライスし、速度ベクトルを探索することを含む。オプティカルフローのビデオの動きベクトルデータを使用しないのはなぜですか?
ビデオコーデックの動きベクトルは誤解を招きますが、必ずしも動き情報が含まれているとは限りませんが、どのブロックに動きがあるかをチェックし、それらのブロックでオプティカルフローを実行するのはなぜですか?プロセスを固定するべきではありませんか?
ありがとう。非常に高い理論的意味では、動きベクトルデータはオプティカルフローのプロセスをスピードアップし、コーデックとopencv関連の実装を破棄するべきですか?つまり、ビデオコーデックの動きベクトルはオプティカルフローの速度ベクトルですが、高度に最適化されていますが、より良い圧縮を達成するために異なるアルゴリズムを使用しています。おそらく – cowboysaif
?特定のコーデックを見ずに、モーションデータをデコーダから取り出すためにどれだけのオーバーヘッドがあるかを把握することなく、言うことは不可能です。おそらく単に我々が話していることを単に実装するだけです。 VLCのソースコードを見てください。 IIRCでは、VLCは少なくとも動きベクトルを小さな矢印として表示できます。チャンスは、あなたはそのメカニズムを採用することができます。 –