現在、OculusやSamsung Gear VRなどのVRヘッドセットで360度の動画がどのように利用できるのかを学びたいと思っています。どうやら彼らはパノラマ動画(360度ビデオ)という概念を使用しているようです。私はいくつかのテストをしていましたが、生のビデオの方が解像度が高いことに気付きました。そして、VRの内部では、ビューポートの内側にある特別な領域(目の前を向いている)ユーザーは、必要に応じてビューを変更することもできます。ここで VRヘッドセットで360本のビデオとパノラマ動画のビューポート
は、生360パノラマビデオのサンプルです:ここそして、どのようにそれが見えるようにギアVRとVRヘッドセット(主要ビューポート)内部: 今
私の質問生のビデオのどの部分が実際に現在ビューポートの内側にあるかを検出する方法があれば、それはありますか?つまり、現在360本のビデオのどの部分が見られているのか(ほとんど)検出できますか? Gear VR、Oculus、Unity3D、または他のVR関連ツールなどのVRヘッドセットが、おそらくいくつかのセンサーやその他の情報を使用していることを知っているAPIがありますか?
私は情報が限られているため、この点についてはあらゆる情報が役に立ちます。
クール。全体的に、ビデオ全体がストリーミングされ、プレイヤー(クライアント側)は、指定されたセンサーなどを表示する部分を決定します。私は今、Gear VRで360の動画をチェックしています。頭を回すたびに、私は最初はすぐに改善する低品質の動画を見ています。それは彼らが何らかの形でサーバーと通信してユーザーのビューを報告するという意味ではありませんか? –
リアルタイムで生成されたビデオであれば、360度のビデオであれば、突然フラッシュして塗りつぶさなければならないビデオパイプライン(フレームのセットが準備され、表示されている)再び新しい視点でアルゴリズムは、粗いパスを最初に行い、より詳細に記入するのに十分なほど巧妙であるかもしれません(確かではありません。余談ですが、目がとても近く、画面が拡大されているため、ヘッドセットの最新の360ビデオは、おそらく見たように非常に粒状の品質です。 – Mick