私はiosでVRゲームの開発を試み始めています。私はGoogleの厚紙SDKから多くを学びました。ユーザーの頭の向きを追跡できますが、ユーザーの移動を追跡することはできません。この不足のため、使用場所は仮想環境だけを修正場所から見ることができます(私はゲームに自動歩行を加えることができますが、それは同じではありません)。vrゲームのセンサーを使用してiosでのユーザーの動きを追跡しますか?
私はインターネットで検索していますが、翻訳トラッキングはセンサーではできませんが磁力計と組み合わせていると、exampleのようにユーザーの移動経路を追跡できます。
私はSLAMと呼ばれる別の方法も見つけました。カメラとopencvを使っていくつかの機能の追跡を行い、次に特徴点情報を使って翻訳を計算します。 13th Labの例をいくつか示します。 Googleにはさらに進化したTango Projectがありますが、ハードウェアのサポートが必要です。
私はゲームの頭の向きだけでなく、頭(または身体)の動きも追跡したいと思っているので、この種の話題には全く慣れていません。 。 SLAMはかなり良いようですが、それはまたかなり困難です、そして、私はそれがCPUに大きな影響を与えると思います。
このトピックをよく知っている方は、アドバイスをお願いします。
Googleのカードボードなどのヘッドセットを使用している場合、SLAMはカメラの穴があるために簡単に動作します。残念なことに、多くのヘッドセットにはこのような穴がないため、電話機のカメラを使用することは困難です。あなたのアプリを使用するすべての人が同じ技術を持つことを保証することはできません。私はクォルコム(Vuforiaを作る人々)が、ヘッドセット内からヘッドトラッキングを行うことができるVRヘッドセットであるSnapdragon VR820を最近発表しました。技術を調査しようとする価値があるかもしれません。 – DisturbedNeo