下のgithubからサンプルのaffectivaカメラテストiOSアプリをダウンロードしました。iOS感情検出サンプル
https://github.com/Affectiva/ios-sdk-samples
それは素敵取り組んでいます。 「悲しみ」感情以外の怒り、軽蔑、嫌悪、恐怖、喜び、驚きなどの感情のログを見ることができます。
このサンプルプロジェクトでは、クラウドサービスを使用して感情を検出していますか、それともiOS上でネイティブに動作していますか?内部でOpenCVを使用していますか?それは内部的にどのように機能しますか? 機能を確認するために少し修正したいのですが、このプログラムがどのように感情を検出するのか知りたいのですが?
説明してください。