私は少し研究を行なったし、私はここに開始すべきであることが判明:https://developer.apple.com/documentation/arkit/arfacetrackingconfigurationiPhone X:ユーザーが画面上を見ているかどうかを簡単に検出できますか?
私はiPhoneを所有していないので、それは少しトリッキーだが自分をXと私は不必要な不便の多くを行う前に、私はただ聞いてみたいです簡単な方法がある場合や、同じ問題を抱えている人がいたら。
私は少し研究を行なったし、私はここに開始すべきであることが判明:https://developer.apple.com/documentation/arkit/arfacetrackingconfigurationiPhone X:ユーザーが画面上を見ているかどうかを簡単に検出できますか?
私はiPhoneを所有していないので、それは少しトリッキーだが自分をXと私は不必要な不便の多くを行う前に、私はただ聞いてみたいです簡単な方法がある場合や、同じ問題を抱えている人がいたら。
ARKitの顔追跡では、頭の位置と顔の形や表情のみが目を追跡しません。 AppleはFace IDで注視追跡/注意検出を実行しますが、そのための外部開発APIはありません。
実際、トリックスターによる回答は完全に真実ではありません。 ARKitはあなたの目を追跡します(他の誰かが答えによって誤解された場合)。
あなたが本当にこれをしなければならなかった場合は、あなたがこれを行うことが方法がである:FaceAnchor - 使用FaceAnchor.isTrackedため -checking ARAnchors - ユーザーが直面している場合、ビュー内にある場合、これは教えてくれます。 -ifがtrueの場合 - ヘッドアンカーのトランスフォームを使用して、ヘッドが画面を指しているかどうかを確認することができます - さらに正確が必要な場合は、目が開いていることを確認できます。 。
私はそれが可能であると確信しています - それは簡単であるかどうかは、 "画面を見ている"とあなたの数学のスキルの正確な定義に依存します。