gpu-warp

    0

    1答えて

    私はcudaにクリティカルセクションを実装したいと思います。私はこのテーマに関する多くの質問と回答を読んでいます。答えにはatomicCASとatomicExchがよく使われます。 ワープ内のすべてのスレッドがアトミックなCASの後に同じロックを取得し、デッドロックにつながるため、これはワープレベルでは機能しません。 私はwarp __ballotまたは__any命令を使用することで、cudaに本

    0

    1答えて

    動的解析はCUDAプログラム上で実行されていました。その結果、特定のスレッドが同じワープになるように改善されました。 例えば、1024のudaスレッドと32のワープ・サイズを持つふりをしましょう。動的分析の後、スレッド989,243,819、...、42(32個のスレッド総数)が同じワープ。 はと同じワープでなければならないと判断しました。これは、コード実行時に発散がほとんどないためです(CUDA