CUDAを使用してマルチGPUアプリケーションをプログラミングすることに興味があります。複数のカードにまたがる1つのカーネルを使用したマルチGPUアプリケーションのプログラミング/
私が知る限り、複数のGPUを使って2つ以上のカーネルを同時に並列実行することができます。各カーネルのデータは、実行中のGPUに格納されています。
しかし、データとカーネルの操作を複数のカードにまたがるようにするにはどうすればよいでしょうか。どのようにこれを行うのですか?
CUDA SDKのsimpleMultiGPU
の例は、基本的に複数のGPUで同じカーネルを起動するので、私が望むものではありません。私が関心を持っているGPU間通信はありません。
同じカーネルで動作しているブロック間でイントラgpu通信をしていないこともあります。私は質問を得るのか分からない。あなたが望むものを明確にすることができるかもしれません。 –
@Pavan、同じカーネル上のブロックは、(例えば、原子メモリ操作を介して)通信することができます。彼らはちょうど同期することはできません。 – harrism
@harrism、悪いです。私は正直言って、並列プロセス間の通信を同期以外のものに使用したことはありません。 –