gpgpu

    1

    1答えて

    自分のGPUの共有メモリとグローバルメモリのサイズを知りたい。私はnvidia tesla k40cを使用しています。私はthis linkを見つけました、そしてそれは標準的なメモリが12 GBだと言います。標準メモリはグローバルメモリと同じですか?共有メモリのサイズはどのようにして調べることができますか? GPUの機能を示すコマンドはありますか? nvidia-smiコマンドを使用しましたが、メ

    0

    1答えて

    CUDAを使用して最小値と1D配列で値が見つかったインデックスを見つける関数を記述しています。 まず、1d配列の値の合計を求めるためのリダクションコードを変更しました。このコードはsum関数でうまく動作しますが、最小値を見つけるために働くことはできません。もし私がやっている間違いを指摘してくれれば、メッセージにコードをつけています。 実際の機能は以下の通りです。テスト例では、配列のサイズは1024

    0

    1答えて

    たとえば、このコードスニペットは通常どおりコンパイルされ実行されますか? int* end = local_buffer + BUFFER_SIZE; for(int* x = local_buffer; x < end; ++x) { ... }

    3

    1答えて

    JuliaでGPUコンピューティングを試すためにGPUカードを購入することを検討しています。私が今見ているように、基本的に2つのオプションがあります:NVIDIAまたはAMDのチップセット。 私の質問は、ジュリアと一緒に使用するための推奨オプションはありますか?私はGPUコンピューティングの初心者であるため、パフォーマンスよりも使いやすさに重点が置かれています。そのため、GPUインターフェイスとし

    4

    2答えて

    openCL C++ APIがありますが、カーネルのコンパイルに問題があります。カーネルはC言語で記述する必要がありますか?そして、C++で書かれたホストコードだけです。あるいは、私が見つけられないC++でカーネルを書くための方法がありますか?具体的には、pyopenclを使って自分のカーネルをコンパイルしようとしていますが、Cコードとしてコンパイルしているので失敗しているようです。

    2

    1答えて

    この質問がばかげているのであれば謝罪しますが、私はGPGPUプログラミングの初心者です。 私の質問は、デバイスのアーキテクチャは変更できないため、__localメモリはローカルワークグループのアイテムだけがアクセスできるように最適化することができますサイズ(分割可能性)?

    0

    1答えて

    CPUやGPUのいずれかで再帰によって生成された値を格納するために使用される多次元疎テンソルで動作する効率的なコードを実装したい。この目標を達成するためには、aligned storageのデータを持つハッシュテーブルが、ストレージとパフォーマンスの間で良好な妥協点を示していると私は推測しています。 私はCPUの実装の最小限のバージョンを持っていますが、コードは以下のとおりです。 私の目的は、GP

    0

    1答えて

    CUDAアプリケーションの最大GPUリソ​​ースを設定できるかどうか疑問に思っていますか?例えば、私が4GBのGPUを持っていて、特定のアプリケーションが2GBにしかアクセスできないようにしたい場合は、それを割り当てようとすると失敗します。 理想的には、これはプロセスレベルまたはCUDAコンテキストレベルで設定できます。

    3

    1答えて

    openclで陽性または陰性の無限大をテストする方法はありますか?リファレンスカードには、isinf()のオプションがあります。isinf()は2つを区別しません。

    1

    1答えて

    大きなデータセットに対して多くの操作を必要とするプログラムがあり、各データ要素の操作が独立している場合、OpenCLは高速化のための良い選択の1つになります。ここ while(function(b,c)!=TRUE) { [X,Y] = function1(BigData); M = functionA(X); b = function2(M); N =