2
私は現在SLAMアルゴリズムに取り組んでおり、深度とRGBデータをポイントクラウドの形で収集することに成功しました。しかし、私はKinect 2.0が受け取ったフレームだけを画面に表示します。それだけです。ポイントクラウドと深度データから3Dマップを構築して保存する方法はありますか?
私はそれらのフレームを収集し、私はオンラインショップを移動すると、それはローカライズまたはマッピングで私を助けるように、私はより精巧な地図(2Dまたは3Dのいずれか)を構築したいと思います。
マップ構築についての私の考えは、多くの単一のスナップショットからパノラマ画像を作成するときと同じです。
誰かが手がかり、アイデア、またはそれを行うアルゴリズムを持っていますか?
Kinect SDKの一部であるKinect Fusionのようなサウンドです。オープンソースの実装もあります。 PCLの一部として – HenningJ