CPUの世界では、メモリマップ経由で実行できます。 GPUでも同様のことができますか?は2つのGPU共有メモリを処理できますか? (CUDA)
2つのプロセスが同じCUDAコンテキストを共有できる場合は、GPUメモリポインタを周りに渡すだけで簡単だと思います。 2つのプロセス間で同じCUDAコンテキストを共有することは可能ですか?
もう1つの可能性は、デバイスメモリをメモリマップされたホストメモリにマップすることです。メモリマップされているので、2つのプロセス間で共有することができます。これは理にかなっていますか?それともオーバーヘッドはありますか?
@RobertCrovella:これはおそらく誰もが提供できるほど良い答えでしょう。もしあなたがそれを追加したいのであれば、私はうれしくupvoteします。 – talonmies