2016-05-19 8 views
1

現在、OculusやSamsung Gear VRなどのVRヘッドセットで360度の動画がどのように利用できるのかを学びたいと思っています。どうやら彼らはパノラマ動画(360度ビデオ)という概念を使用しているようです。私はいくつかのテストをしていましたが、生のビデオの方が解像度が高いことに気付きました。そして、VRの内部では、ビューポートの内側にある特別な領域(目の前を向いている)ユーザーは、必要に応じてビューを変更することもできます。ここで VRヘッドセットで360本のビデオとパノラマ動画のビューポート

は、生360パノラマビデオのサンプルです:ここ enter image description here

そして、どのようにそれが見えるようにギアVRとVRヘッドセット(主要ビューポート)内部: 今enter image description here

私の質問生のビデオのどの部分が実際に現在ビューポートの内側にあるかを検出する方法があれば、それはありますか?つまり、現在360本のビデオのどの部分が見られているのか(ほとんど)検出できますか? Gear VR、Oculus、Unity3D、または他のVR関連ツールなどのVRヘッドセットが、おそらくいくつかのセンサーやその他の情報を使用していることを知っているAPIがありますか?

私は情報が限られているため、この点についてはあらゆる情報が役に立ちます。

答えて

1

球のどの部分が視線の視界に入っているかをプレーヤーが検出できるかどうかを知ることができれば、プレイヤーは生の動画を実際に変換してユーザーがいるビューを作成する必要があるため実際にはその時を見ている。

それは例えば、ブラウザに表示されている場合、デバイスセンサー、またはキーパッドからINOUT取り、ユーザが任意の時点で見ている場合、このから決定することによってこれを行います。

これに基づいて、プレーヤは、生のビデオに変換を適用して、ユーザの視線に入るはずのビデオ部分のみを画面に表示します。

ビデオを「配信している」サーバーに、ユーザーの視線がいつどこにあるのかを知りたい場合は、360フルサイズの生のビデオを配信するだけで答えはノーです今回はとにかく)。

プレイヤーは、ユーザーが変更を表示して報告することを示す分析をサーバーに報告することができますが、これは各プレーヤーに個別に依存します。確かにパートナーシップで360ビデオ分析を提供したり、特定のプレーヤーを構築する能力を強調している企業があります。

+0

クール。全体的に、ビデオ全体がストリーミングされ、プレイヤー(クライアント側)は、指定されたセンサーなどを表示する部分を決定します。私は今、Gear VRで360の動画をチェックしています。頭を回すたびに、私は最初はすぐに改善する低品質の動画を見ています。それは彼らが何らかの形でサーバーと通信してユーザーのビューを報告するという意味ではありませんか? –

+0

リアルタイムで生成されたビデオであれば、360度のビデオであれば、突然フラッシュして塗りつぶさなければならないビデオパイプライン(フレームのセットが準備され、表示されている)再び新しい視点でアルゴリズムは、粗いパスを最初に行い、より詳細に記入するのに十分なほど巧妙であるかもしれません(確かではありません。余談ですが、目がとても近く、画面が拡大されているため、ヘッドセットの最新の360ビデオは、おそらく見たように非常に粒状の品質です。 – Mick

関連する問題