kinect

    0

    1答えて

    私はKinect V2の生データが何であるか把握しようとしていますか? ...これらの生データをメートルに、灰色で奥行きを表すデータに変換できますが、これらの生データの単位は何ですか?、なぜKinectでキャプチャされたすべての画像がミラー化されているのですか?

    0

    1答えて

    私はKinect v1を使用していますが、ROSのチャンネル"/ camera/depth_registered/image"からグレースケールモードで奥行き画像を取得します。 hereが見つかりましたので、私はimgmsg_to_cv2という関数を使ってそれを行うことができます。深度メッセージのデフォルトのdesired_encodingは "32FC1"です。問題は、私がcv2.imshow(

    0

    1答えて

    私はMatlabとKinectセンサーを使って1つのプロジェクトに取り組んでいます。 kinect V2およびMatlab R2016aです。私は骨格画像を作成する人の関節を追跡するためのライブフィードを取得する機能を持っています。問題は、コードの一部が滞っていて、それを修正する方法がわからないことです。 私はこの行を書いていますが、それは動作しません: set(getselectedsource

    0

    1答えて

    私は、フレームに取り付けられたスパンデックス織物にいくつかのボタンを備えたゲームを投影しています。そのボタンを使用して、衣服のその特定の領域の奥行き変化を監視することによって、どのボタンがタッチされたかを見たいと思います。 (フレームがフレームの端に取り付けられているため、ファブリックが引き伸ばされています) ボタンの位置を知る必要があるため、コンピュータ画面でKinectとプロジェクタを別々に調

    0

    1答えて

    Kinectは、ポイントとセンサー位置の間の3Dユークリッド距離をピクセルごとに測定することによってデプスマップを作成します。この深度マップは、例えば、http://nicolas.burrus.name/index.php/Research/KinectCalibration に記載されているように、3Dカメラ空間に再投影することができます。特に、投影点のz座標は、そのピクセルの測定深度に設定さ

    1

    1答えて

    vision.internal.visionKinectDepthToSkeletonやdepthToPointCloudやpcfromkinectのような生の深度画像から実際のxyzを取得する方法はたくさんあります。 問題は、これらの機能がどのように正確に機能するかがはっきりしないことです。これらの関数はすべてvision.internal.visionKinectDepthToSkeleton

    1

    2答えて

    私はMicrosoft Kinect Depth Streamを使用してハンドセグメンテーションを行っています。いくつかのスレッシュホールドを行うことで、私はバックグラウンドから身体を分離することができました。MS Kinect Sensorが提供する奥行き情報に基づいて、手をセグメント化することができます。どのように私は手を分割することができます任意の提案。以下は私の奥行き画像のスクリーンショッ

    0

    1答えて

    私はXbox Kinect v2を持っています。私は次のことをする必要があります: それの前にあるものを何度も測定します。これは写真を撮るようなものだが、深さの値について考える。 各ピクセルの奥行き値をファイルに出力します。これらの値を後処理に使用するつもりだから、各深さの値をx-y座標に関連付ける必要があります。 私はKinect for Processingを初めて使用していますが、ドキュメン

    0

    1答えて

    奥行き情報を含むグレースケール画像が出力される奥行きカメラを取得します。奥行き画像に基づく画像認識と検出アルゴリズムはありますか(特に組み込みシステムの場合)?

    1

    1答えて

    私はKinect Windows V2を使用して私の論文に取り組んでいます。私はKinectのBasic Face Tracking SDKにとても興奮して驚いています。しかし、私はしばらく検索しましたが、アルゴリズムについて議論する論文はほとんど見つかりませんでした。したがって、私はどこの専門家からこのアルゴリズムを十分に利用するためにアルゴリズムを理解するための情報源を入手できるのかを知りたい