2017-09-17 9 views
0

私の質問が正しく表現されていない場合は事前に謝罪してください。私はARテクノロジーに新しいので、CSには学生がいます。私は一日中ARについて読んできましたが、私はまだ私の質問に答えることができませんでした。ARKitシーンをバックエンドに保存して後でロードしますか?

私の質問は:アップルのARKitでは、作成されたプレーンを認識するためにARKitシーンまたはセッションをバックエンドからロードできますか?完璧な例は、WWDCデモのベビーシッターアプリです。私の家の表面に図面を作成し、そのセッションをバックエンドに保存して、ベビーシッターが来たら、クラウドからセッションデータをダウンロードし、保存された位置に図面をロードしますか?

もう一度申し訳ありませんが、私は質問を盗んだ場合、私はまだこれを正しく質問するのに十分な経験はありません。

答えて

2

共有ARの問題は、同じ経験を同時に見ている2つ以上のデバイス、または他の誰か(または元のデバイス)のレコーディングを後で経験するデバイスがあることですそのようなことには、共通の基準枠が必要です。つまり、座標0,0,0は、両方のユーザの同じ現実の位置(および向き)を参照する必要があります。

すべてのARKitは、セッションを開始したときのデバイスの相対的な基準フレームにあり、「絶対」ワールド座標のいずれかの種類の参照フレームをローカライズする方法を提供しません。つまり、たとえば、0.2, -0.1, -0.5などのバーチャルコンテンツを配置した経験を記録しようとすると、後でそのプレイバックを再生する唯一の方法は、同じ実世界の位置にあるコンテンツが第2の人物が同じ場所に立って、同じ高さにデバイスを保持し、同じ方向を指していた。

Giphyの「ベビーシッターのためのメモ」デモthat made the press a few weeks agoは、ほとんどARの経験のビデオの録音についてのようです。

共有の(または絶対的な)基準フレームを持つARが可能かもしれませんが、ARKitはすぐに何もしません。

+0

私は基本的なプロトタイプを実現する唯一の方法は、複数の通信事業者がセッションの間にAR状態を維持する必要があるアプリケーションに取り組んでいます。私が現在使っていた部屋のデジタル青写真を作成して、場所+私の部屋の中で私のために推定されるx、yの位置を提供するために位置+ 4カメラを使用して、私は簡単には達成できないと思う。私はこれが今後数ヶ月/数年で大幅に改善されると確信しています – Alex

+1

ありがとう@アレックスとrickster。これは私がGoogleで見つけられるリソースよりもずっと意味がありました!私はそれをさらに見て、CoreLocationとARKitと一緒に何かをハックすることができるかどうか見てみましょう。それは風景の正確なフィットではないかもしれませんが、おそらく今ARシーンを場所に固定することができます! –

+0

Core LocationとARKitは異なるスケールで動作することに注意してください。 ARの位置決め精度は、ミリメートルからセンチメートルの範囲である。ジオ測位には1〜数メートルの誤差があります。 – rickster

0

動作していると思われる別の方法は、ポイントクラウドの位置を比較することです。 2人のプレイヤーが同じようなパターンを持つ表面を見ている場合、それを新しい参照ポイントとして定義することができます。 私はいくつかの実験をしましたが、うまくいくように見えますが、それは信頼できるものではありません。 今、私は環境の元のメッシュがクラウドに保存され、カメラのメッシュと比較される写真測量で新しいアプローチを試しています。

+0

「ポイントオブリファレンス」とはどういう意味ですか?あなたはどこで何をしようとしているのか、もっと正確にすることができますか? ARKitの参照ポイントを「編集」することはできますか?おそらくコアロケーションの位置からですか? – dimib

関連する問題