主な問題は、GPUに立体視フォーマットを送ることである。 HDMI接続の場合、これはドライバの助けなしには動作しません。あなたはプロ級のGPU(Quadroは、のFireGL)を持っている場合は、それらの可能性の高いサポートOpenGLのquadbuffersは、あなたが左眼と右眼、表裏の両方のためのフレームバッファを取得する例:
glDrawBuffer(GL_BACK_LEFT);
render_left_eye();
glDrawBuffer(GL_BACK_RIGHT);
render_right_eye();
glDrawBuffer(GL_BACK); // renders to both eyes simultanously
render_screen_level_and_nonstereoscopic();
SwapBuffers();
あいにくのOpenGLクワッドバッファがプロと考えられていますグレードのもの。
代わりに、NVidiaには通常の立体視用ライブラリとそれを制御する拡張機能がいくつか用意されています。主な推論は、共有された断片が一度だけレンダリングされ、次いで適切な視差が適用されて両眼に送られることである。しかし、私のセミプロフェッショナルのステレオスコピック1の経験から、この種のセミ/オートの立体視標本はそれをカットしません。ステレオスコピーは "生産"パイプライン全体を厳密に制御する必要があります。エレファントドリームでは、レンダラのコアコードを変更するまで行った。
NVidiaの3Dデビジョンで人を送ったところ、立体視プロセスを正確に制御する必要があるいくつかのシナリオがありました。私は彼らが光を見て、コンシューマーグレードのハードウェアでもクワッドバッファーステレオにアクセスできることを願っています。私は3Dの仕組みの基本を理解
注実際には2つの異なる角度からではなくてレンダリングされない
(2つの異なる角度、各目に1から2回同じ画像をレンダリング)シフトされた視差及びレンズシフト。さもなければ、私は今、立体視レンダリングのプロセスで光軸をわずかに広げなければならないと思っています。つまり、邪魔にならないものに完全に反することです。私は現在、これに関する小さな研究を準備していますが、まだ私のテストとコントロールグループを集める必要があります)。
1:一体、私はsingle-handedly stereographedエレファンツドリーム、rendered it男だし、それにaward at a 3D movie festivalを得ました。
[HDMI 1.4a互換の立体映像信号をOpenGLアプリケーションから3DTVに出力するにはどうすればいいですか?](https://stackoverflow.com/questions/7032991/how-can-i-output-a -hdmi-1-4a-compatible-stereoscopic-signal-from-opengl-appli) – user2284570