私はプロジェクトにAugmented Reality SDK from Stringを使っています。基本的にこのSDKは、認識した画像のマーカの束と、iPhoneのカメラビュー内の3D空間内のマーカ画像の位置を示す関連OpenGL行列変換を返します。私がやろうとしているのは、CATransformLayer
をシーンにマッピングして、マーカー画像上に正しく表示されているように見せて、その場所でビデオを再生することです。私はCATransformLayer
の中に入っているAVPlayerLayer
を使ってこれを行うことができたと思っています。それにはマトリックス変換(CATransform3D
に変換)が適用されています。OpenGL変換行列をCATransformLayerで動作させるために
これは特にうまくいきません。元のOpenGLマトリクスとCATransform3D
の後ろのマトリクスとの間に論理的なマッピングができないようです。あなたは(青ビットは私の層である)それはかなりのマーカー間の直接変換変換とCATransform3D
オブジェクトをやって台無しだことがわかります
:
私は、彼らが同じであったと仮定し(私は数回、彼らがCALayer
GLバッキングのために同一であると言われました)。これは本当ですか?何か不足していますか?
私はビデオをテクスチャとしてシーンにレンダリングすることができますが、可能な限りハイレベルを保つことは素晴らしいでしょう - アイデア/コメント/考え?
[3D OpenGLマトリックス変換をCoreAnimation CATransform3Dに変換するにはどうすればいいですか?](http://stackoverflow.com/questions/5887995/how-do-i-convert-3d-opengl-matrix-transforms-to -coreanimation-catransform3ds) –