2016-04-07 11 views
2

Unity3dを使用してProject Tango用の拡張リアリティアプリを開発しています。カメラオフセット| Project Tango

仮想物体を実際の世界とやりとりしたいので、例の物理メッシュを基準にして、タンゴのARカメラのプレハブを相対位置(0 、0,0))。

ARカメラを約17度回転させなければならないことが分かりました。ダイナミックメッシュが部屋にマッチするようになりましたが、カメラからのライブプレビューにはまだかなりのオフセットがあります。

これまで対処しなければならなかった人なら、ダイナミックメッシュと現実の世界を調和させるための解決策を共有できるのだろうかと思いました。

Screenshot

はどのようにしてカメラ画像と仮想世界を揃えることができますか?

答えて

3

私は同様の問題を抱えています。これは以前に回答の質問のカップルに関連しているように見えます:

Point cloud rendered only partially

Point Cloud Unity example only renders points for the upper half of displayあなたのアカウントにあなたが得るために必要とするデバイスの原点からのオフセットカラーカメラを取る必要が

デバイスとの相対的なカラーカメラの姿勢。これを直接行うことはできませんが、IMUフレーム内のデバイスとIMUフレーム内のカラーカメラを取得して、デバイスフレーム内のカラーカメラを処理することができます。上のリンクはサンプルコードを示しています。

(単位座標で)a(0.061、0.004、-0.001)のオフセットとx軸の周りに13度の回転があるように見えるはずです。

私は例を使用しようとすると、私は壊れた回転を得るため、塩のピンチでこれらの番号を取ります。私はyとzの周りに小さな回転を見ています。これは私が期待しているものと一致しません。

+0

ありがとうございます!それはかなりうまくいく。私はちょうど37.8のfovを使用してそれが必要であることを追加したいと思います。 – 000000000000000000000

関連する問題