kinect

    0

    1答えて

    Kinect v2のカラーカメラと深度カメラの画像を一致させたいと思います。 ですから、以下のサイトの方法を試してみたいと思います。 私には理解できないことがあります。 Kinect RGB & depth camera calibration 私は "GML C++カメラキャリブレーションツールボックス" ツールを使用して "rgb_M_world"、 "ir_M_world" を得ることができ

    1

    1答えて

    CMUモーションキャプチャデータは、各フレームのスケルトンをオイラー角として保存しました。 Mocap Toolboxを使用して、オイラー角を3D点に変換するのは簡単です。しかし、私は逆の操作を行う方法を疑問に思った? Kinectは同じ操作をしているようです。まず、深度カメラから人間の3D座標を取得します。第2に、これらの座標をオイラー角として保存する。

    1

    1答えて

    私は次のコードを持っています。私はKinect v1からpngファイルとして取得する16ビット深度の画像を保存しようとしています。私は次のコードサンプルを書いた: def display_depth(dev, data, timestamp): global keep_runningp #cv2.imshow('Depth', frame_convert2.pretty_de

    0

    1答えて

    現在、Kinect V2を使用してある場所から別の場所に奥行き画像データを転送しています。私はC#を使用してKinect V2から奥行き画像を抽出することができます。今、私はこのデータをリモートユーザに送信して、リモートユーザがリモートユーザの3D Viewを見ることができるようにしたいと考えています。誰もチュートリアルや役に立つポインタを持っていますか? あなたは

    0

    1答えて

    私はKinectセンサーでRGB-D SLAMを試しています。 Kinectセンサーには、rgbカメラと深度カメラがあります。 どこで私のカメラをローズバッグに合わせる必要がありますか? rgbカメラの中心? 深度カメラの中心? 2台のカメラの間に? Kinectの2台のカメラは少し離れているので、 は2台のカメラの画像が異なりますか?

    0

    1答えて

    ラズベリーパイのキネクトを使ったオブジェクトトラッキングに取り組んでいます。 私は2つのコードを混在させています。kinectでほぼオブジェクトを見つけて、OpenCVフィルタを使ってこのプロセスがグレーのオブジェクトを追跡した後にグレーの色を設定する必要があるからです! しかし、私はできません!私は import freenect import cv2 import numpy as np

    0

    1答えて

    例のためにヘッドがSensorviewに入ったときにイベントを処理する方法を尋ねただけです。私はドキュメンテーションを読んだが、その方法は見つけられなかった。

    1

    1答えて

    matlabで複数のkinect V2を検出して使用することはできますか? (Usbトラフィックは問題ありません) ありがとうございます!