kinect-v2

    0

    1答えて

    Kinectを使用してユーザーが画面を見ているかどうかを検出したいと思います。 私は、すべての向きに対してヘッドジョイントが0を返すボディジョイントの向き(W、X、Y、Z値)を表示するときに気付いたことがあります。何故ですか?私はこの情報を決定するために他の関節を使うべきですか?

    1

    1答えて

    matlabで複数のkinect V2を検出して使用することはできますか? (Usbトラフィックは問題ありません) ありがとうございます!

    -1

    1答えて

    を見つけることに、私はViual Studioの2013年にWindowsのSDK 2.0でのKinect V2からの深さとRGBデータを取得したいので、私はこれらのコードを記述します。 #include <Kinect.h> #include <cmath> #include <cstdio> #include <cstdlib> #include <Windows.h> #inclu

    0

    2答えて

    pyKinect2 BodyGameの例でしばらく再生した後、いくつかの研究を行った後、私はz値を受け取る方法をこのジョイントからのx座標とy座標。 挙げ著者: depth_points = self._kinect.body_joints_to_depth_space(joints) x = depth_points[PyKinectV2.JointType_Head].x y = dept

    0

    1答えて

    次の単純なpythonコードは、ウェブカメラを使用して色に基づいてオブジェクトを検出して追跡するためのコードです。 私の質問はなく、Kinectのv2の(NOTウェブカメラ)を使用して同じコードを使用する方法です。 私はUbuntuの16.04、Linuxの いずれはこれで助け、そしてどのようにLinux上でウェブカメラとしてのKinect V2を使用する方法を教えてくださいすることができますを使

    0

    1答えて

    キネクトv2は、512 x 424ピクセルの解像度を持つ深度フレームを提供し、f0ovは70.6 x 60 degreesとなり、平均で約7 x 7ピクセル/ピクセルとなります。 [Source]。 しかし、私は深度フレームのピクセルサイズに関する情報を見つけることができませんでしたか、または与えられた情報からピクセルサイズを計算する方法はありますか?

    1

    1答えて

    私は、ユーザーの手のジェスチャー(親指と親指)を認識し、基本的な機能(値の更新など)を実行するWebアプリケーションを開発する予定です。 kinect v2でこれを達成する方法は?

    0

    1答えて

    Kinect v2のカラーカメラと深度カメラの画像を一致させたいと思います。 ですから、以下のサイトの方法を試してみたいと思います。 私には理解できないことがあります。 Kinect RGB & depth camera calibration 私は "GML C++カメラキャリブレーションツールボックス" ツールを使用して "rgb_M_world"、 "ir_M_world" を得ることができ

    1

    1答えて

    でBoneOrientation.StartJointを得ることができます私はV2のKinect SDKとスケルトンを拡張しようとすると、(スレッドの下部にある)、この素敵なコード例を見つけましたよ: Kinect skeleton Scaling strange behaviour 問題があることですこの例は以前のバージョンで行われていて、それ以来多くのSDKが変更されたようです。 私は、v2

    0

    1答えて

    現在、Kinect V2を使用してある場所から別の場所に奥行き画像データを転送しています。私はC#を使用してKinect V2から奥行き画像を抽出することができます。今、私はこのデータをリモートユーザに送信して、リモートユーザがリモートユーザの3D Viewを見ることができるようにしたいと考えています。誰もチュートリアルや役に立つポインタを持っていますか? あなたは