nvidia

    -1

    1答えて

    にNVIDIAのCUDAドライバのインストールエラー(サポートされていない)が見つかりませんが、私は次のエラーを取得: The driver installation is unable to locate the kernel source. Please make sure that the kernel source packages are installed and set up cor

    2

    1答えて

    マクスウェルアーキテクチャNVIDIA blogに応じLOP3呼ばPTXアセンブリ内の新しい命令を導入しました: 「とは、複数の入力に対して複雑な論理演算 を実行するときの手順を保存することができます。」 GTC 2016 で 、いくつかのCUDA開発者は、このような命令でTegraはX1のプロセッサ用atan2f関数(マックスウェル)を促進することができました。 ただし、.cuファイル内に定義さ

    2

    1答えて

    Nvidia Reductionのすべての最適化を実行しようとしています。私は最初の4つの部分を実装しましたが、スライド番号22の部分#5で立ち往生しています。 syncthreads()がなくても、提供されたコードが動作する理由はわかりません。スレッドは、出力内の同じメモリ位置にアクセスします。 また、スライドでは、変数がvolatileに設定されていないとコードが機能しないことが示唆されていま

    -4

    1答えて

    私は現在、私の友人のためにいくつかのコードをテストしています。私はさまざまなMXMモジュールにアクセスしており、950Mと970Mの間でいくつかのコードをベンチマークする奇妙な結果を得ています。 int main(void) { static const int WORK_SIZE = 65530; float *data = new float[WORK_SIZE];

    1

    1答えて

    私のシェーダには?がまったく含まれていません。私はユニコードと印刷不可能な文字を検索し、見つからなかった。このエラーは何を意味しますか? error C7537: OpenGL does not allow '?' after a type specifier error C7589: OpenGL does not allow a parameter to be a buffer error

    0

    2答えて

    CUDA Reductionで最適化を実装しようとしていて、パート6まで正常に完了しました。皆さんにお世話になりました。 CUDAを完全に理解するには、アルゴリズムのカスケーディングと呼ばれるスライド#31で述べたように、最終的な最適化も完了する必要があります。 基本的には、スレッドごとに512個の要素があり、削減を実行する前にすべての要素を順番に合計することです。 私はそれぞれのスレッドがメモリ

    0

    1答えて

    次のコードでグローバル関数を呼び出すとします。私たち実行されるもの #define NUMTHREADS 200 int main(){ int * result; curandState * randState; if (cudaMalloc(&randState, NUMTHREADS * sizeof(curandState)) == cudaEr

    2

    1答えて

    私はTheano exampleに基づいて、次のコードを持っている:私は2つのモードでコードをテストするとき from theano import function, config, shared, sandbox import theano.tensor as T import numpy import time vlen = 10 * 30 * 768 # 10 x #cores x

    1

    1答えて

    私は、NVIDIA Tesla K20 GPU(Keplerアーキテクチャ)の電力使用量をNVML APIを使って定期的に測定するコードを書いています。 変数: nvmlReturn_t result; nvmlEnableState_t pmmode; nvmlDevice_t nvmlDeviceID; unsigned int powerInt; Basicコード: result