申し訳ありませんが、私はC++とCudaを勉強しています。これが可能かどうかを知りたいので、関連するセクションにもっと集中できます。CUDAは独自の作業キューを処理できますか?
私の問題は非常に並列化が可能で、実際には現在複数のサーバーで実行しています。何もしない(データを破棄し
- :私のプログラムでは、作業項目(非常に小さなリスト)を取得し、その上にループを実行し、3つの決断の一つになります何をすべきかのその不明さらに
- プロセスデータ(、)それをので、データを変更し、処理するためにキューにそれを再送する。
この
私の現在の思考プロセスは、C++ホスト上のキューを管理し、処理をデバイスに送信した後、結果がホストに返され、デバイスに返送されます(など)。私はそれがうまくいくと思っていますが、CUDAメモリ自体にキューを持たせることができ、カーネルが作業をして直接作業を送信できるかどうかを見たいと思っていました。
これはCUDAで可能なのでしょうか、これを行う良い方法がありますか?
[C++で作業キューを管理するために使用できる埋め込みライブラリはありますか?](http://stackoverflow.com/questions/10464838/is-there-a-embedded-library-i-can -use-to-manage-a-work-queue-in-c) – talonmies