kinect

    1

    1答えて

    私は、ある時点でKinect v2で動作する外部Unityミニゲームを実行するKinect v2アプリケーションを開発中です。 ShellExecute関数を使用していますが、Unityアプリケーションが終了した後にメインアプリケーションに通知するコールバックを実装する方法がわかりません。 Unityが独自のアプリケーションを実行すると、メインアプリケーションでKinectマネージャを一時停止した

    0

    1答えて

    RnDプロジェクト用のkinect v2デスクトップアプリケーションを開発中です。 約1ヶ月前、私はKinectセンサーを備えていました。私はUSB 3.0ポート(マザーボード)に接続しました。SDKをインストールし、すべてが正しく機能していました、深み、色、ボディインデックストラッキング(スケルトンジョイント)私はプロジェクトを一時停止しました。 昨日、私は「Body Tracking」機能が機

    2

    1答えて

    がC++を使ってKinectのV2によって追跡体を取得しようとしているが、Cにも、Microsoftのドキュメントになっ++ KinectのV2のためのAPIが 関連するコードスニペット非常に悪く、そのように動作していないその返されます。 HRESULT result; if (BodyFrameReader != nullptr) { result = BodyFrameRead

    1

    1答えて

    現在、Kinectと一緒にEmguCVライブラリを使用してWPFを使用して簡単なヒットテストを作成しています。私はチェス盤のコーナーを見つけて四角形の四隅として四角形のリストに格納することができます。次に、LeftMouseButtonUpイベントを使用してマウスの位置を取得し、長方形。 問題は、EmguCVがチェス盤のコーナーとして返す座標とマウスクリックイベントが並べられていないので、ヒット(

    1

    1答えて

    私はKinect v1、raspberry pi 2、windows iotコアを使用して顔認識に関する新しいアプリケーションを作成しようとしていますので、いくつかの調査を行い、新しい更新ウィンドウ10のメディアキャプチャを使用できることがわかりました私が知る必要があるのは、Kinect v1をメディアキャプチャで使用することが可能かどうかです。そうでない場合は、他の解決策がありますか?

    0

    1答えて

    私はこの問題を解決するために多くの技術を研究しています。 スケルトンのデータから手の座標を取得しました。これらの座標を使用して、奥行きのデータから領域を切り取り、手の位置が変わるときにそれを表示したいと思います。 私はすでにrgbと深さのストリームをビットマップに変換しています。私は短い時間で実行しているので、私は窓のフォームに取り組んでいます。 デプスデータ座標にスケルトン座標をどのようにマッピ

    6

    1答えて

    私はOSX 10.11.5にlibfreenect2を設定しただけで、RGB/IR /デプスストリームを表示するProtonectデモを正常に実行できますが、OpenNI/NITEを使ってスケルトンを追跡したいと思います。 私はOpenNIのためのレポのREADMEファイルの指示に従ってきましたが、私はNiViewerを実行しようとしたとき、私はこれを得た:私は現在、githubの上libfree

    1

    1答えて

    私は、3方向すべての手を動かすことによって、3Dオブジェクトに表示される仮想カメラの回転とズームを実行するためにKinect 2を使用しています。私が現在取り組んでいる問題は、これらの操作がいくつかの目立つ遅延で実行されていることです。私の手が再び安定した位置にあれば、カメラはまだ短時間動いています。リアルタイムで制御するのではなく、カメラを押したような感じです。おそらくフレームレートが問題です。

    0

    1答えて

    Kinect v2カメラ(Linux)を使用して実世界のxyz座標を計算しようとしていますが、計算結果が間違っています。ここで コードです: cv::Point3f xyzWorld={0.0f}; xyzWorld.z = pointDepth; xyzWorld.x = (float) ((float)x -(depthcx)) * xyzWorld.z/depthfx; xyzWor