fisheye

    1

    1答えて

    次linkたちはデュアル魚眼レンズは、以下の式を用いて座標を正距円筒座標に変換できることを示唆しているの正距円筒の座標 const float FOV = 220.0f * PI/180.0f; float r = sqrt(u*u + v*v); float theta = atan2(v, u); float phi = r * FOV * 0.5f; float px = u; f

    0

    1答えて

    私はチェッカーボードの20枚の画像のセットを使用して魚眼レンズを較正しました。点はすべて正しくラベル付けされており、固有値とレンズの歪み係数が得られます。 15ミリメートルのために15に「正方形のサイズ」変数を定義する は私に0歪み係数及び〜600の焦点距離を提供します。これを0.015に設定すると、歪み係数と焦点距離が〜1200になります。どちらの場合も、私の投影中心はおおよそ妥当なイメージの中

    0

    1答えて

    私が研究した限り、タンゴ魚眼カメラとrgbセンサーを同時に使用することはできないようです。 タンゴの魚眼カメラでカラー写真を撮ることは可能ですか?

    5

    1答えて

    オープンフレームワークを使用して、(iOSアプリケーションの場合)二重魚眼映像(ricoh theta Sカメラから受信)を等角形式に変換しました。 デュアル魚眼画像サンプル: 正距円筒画像サンプル: 私はシェーダの下に使用します。 equirectangular.frag // based on ThetaShaderPack_20150926 (http://stereoarts.jp/) w

    1

    1答えて

    私のSLAMプロジェクトのレンズ歪み効果をシミュレートしようとしています。 スキャンされたカラーの3D点群は既にOpenGLで与えられ、ロードされています。 私がしようとしているのは、2Dシーンを与えられた姿勢でレンダリングし、魚眼カメラからの実際の画像とレンダリングされた画像の間にいくつかの視覚的オドメトリを行います。 レンズの歪みがひどいため、レンダリング段階でも考慮する必要があります。 問題

    1

    1答えて

    私は、画像がゆがんで歪んでいないときに、画像内の情報の損失量を測定しようとしています。 私は、Matlabの次のプロセス(カメラの視野を一定に保ちます)をしています。 オリジナル画像(ピンホールカメラタイプ) - >魚眼の歪み(分割モデルを使用) - >歪んだ画像の歪みのない画像(分割モデルの逆数を使用)を使用して、歪んでいない画像を戻します。 上記の手順を実行した後、imsubtract(Ori

    0

    1答えて

    OpenCVを使用して魚眼画像を歪ませようとしています。 :私はこのような魚眼画像をトリミングする必要が今 img = cv2.imread('img.jpeg') #image path of pic to distort h,w = img.shape[:2] Knew = cv2.fisheye.estimateNewCameraMatrixForUndistortRectify(K,

    1

    1答えて

    私は2つの魚眼カメラからの2つの画像を縫い合わせる方法を見つけようとしています。しかし、私は元の画像を修正する方法を知らない。私はopencv3.0でクラスfisheyeでこれをやろうとしましたが、次のステップで十分な情報が得られないほど大きな視野があります。だから、この問題を解決する考えはありますか?あなたが私に特定の戦略を示すことができたら、私は幸運です。どうもありがとうございました!

    1

    2答えて

    私は魚眼カメラの校正に取り組んでいますが、私は期待された結果を得ていないと私はどこが間違っているのか分かりません。私はこのカメラキャリブレーションが初めてです。 undistortするキャリブレーション Focal Length: fc = [ 410.7476 408.0925 ] Principal point: cc = [ 369.3690 299.0193 ] Skew:

    0

    3答えて

    私はGoogle Tangoの魚眼カメラを使用して環境写真を撮り、それを分析したいと考えています。しかし、どのように私はUnity環境でこれを達成することができますか?私はタンゴのARカメラを続けるべきですか? ありがとうございます。