AWSがCluster GPU InstancesにGPUを割り当てる方法と同様に、動的クラウドベースのNVIDIA GPU仮想化を有効にするオプションを探しています。Amazon Web Services Cluster GPUインスタンスに似たプライベートクラウドGPU仮想化
私のプロジェクトでは内部クラウドを立てています。 1つの要件は、サーバ側のCUDA処理のために仮想マシン/インスタンスにGPUを割り当てる機能です。
USCはこれをサポートするためにOpenStack enhancementsに取り組んでいるようですが、まだ準備はできていません。 OpenStackで完全に機能していれば、これは私が探しているものです。
NVIDIA VGXは、厳密にリモートデスクトップのGPU仮想化であるUSMsへのGPUの割り当てのみをサポートしているようです。私が間違っていて、VGXが仮想マシン/インスタンスからサーバ側のCUDAコンピューティングを有効にしている場合は、私に知らせてください。
[Xen HVMハイパーバイザー](http://wiki.xen.org/wiki/XenVGAPassthrough)を使用してGPUをVMに割り当てることは可能です。しかし、それは自明ではないセットアップであり、すべての確率で、その動作に多くの粗いエッジがあります。 VMが起動する前に割り当てを行う必要があります。実際にはGPUとVMの1:1マッピングでは、(PCIパススルーを使用して)このように複数のVM間で1つのGPUを同時に共有することはできません。 –
@Robert Crovella - ありがとう。私は本当にクラウド管理ツールとよりシームレスに統合するものを見つけたいと思っていますが、可能な選択肢は少なくともスタートです。完全なCUDA APIが利用可能かどうかを調査する必要があります。 –
@Robert Crovellaがありますが、Xenで試してみると、いくつかの前提条件があります.CPUにはIntel VT/dまたはAMD IOMMU(現時点では問題はない)、GPUが「有効」になっている必要がありますVT-d/IOMMUパススルーサポート(NVIDIAはこのマルチOSと呼ぶようです) - これはMシリーズのTeslasとQuadros、Xen 4.1) – Blairo