2013-05-28 7 views
8

私はAVMetadataFaceObjectを使用して、ビデオ内の顔のヨーとロールを取得しようとしています。私が知ることから、ヨーの精度は45度の増分であり、ロールは30度の増分で表されます。AVMetadataFaceObject Precision

この精度を向上させる方法はありますか?

(コードはProper usage of CIDetectorTrackingのように表示されます)。

+0

これまでのところ、それは不正確だと思ったことはありますか?ドキュメントによって、10進数で0〜90の浮動小数点精度の値が得られるように見えます。 – CodaFi

+0

それは私が期待するものですが、出力値をログに記録すると、45度単位でジャンプします。だから私の頭が垂直であれば、0と言います。私が頭を傾けるようになると、0にとどまり、一定の傾きに達した後にジャンプします。 – Liron

答えて

1

あなたは目の矩形を取得して角度を計算できます。この分野で多くの改善がなされているので、ここで行った変更をiOS 7で調査する必要があります。

+0

私は間違いなくios7が提供しているものをチェックします。 – Liron

+4

どのように目の位置を取得しますか?私がドキュメントで見るところから、AVMetadataFaceObjectには、ヨー/ピッチとフェース・バウンドしかありません。 CIDetectorなどを使って、より正確な顔検出を行うことができますが、これはより多くのCPUを使い、私のアプリが遅くなります。 – Liron

+0

これは古くからの古いスレッドですが、Core Graphicsの顔検出で目の位置を知ることができます。 AVFよりも遅いですが、詳細(目と口)と精度が向上します。 –

関連する問題