multiple-gpu

    0

    1答えて

    私は2つのGPU、6GB GTX Titanと11GB GTX 1080Tiを持っています。 期待:Tensorflowは自動的にすべてのGPUのメモリを使用する必要があります。 リアリティ:Tensorflowは、2つのデバイスをgpu:0とgpu:1としてマップしますが、gpu:0のみを使用し、gpu:1を使用しません。そのメモリ要求をOutOfMemory例外gpu:1。 私がしたいことは、

    2

    2答えて

    フレンド! 複数のGPUで処理することについて質問があります。 私は4つのgpusを使い、以下のように3つの方法で単純なA^n + B^nの例を試しました。 シングルGPU with tf.device('/gpu:0'): ....tf.matpow codes... マルチGPU with tf.device('/gpu:0'): ....tf.matpow codes

    2

    1答えて

    CUDAアプリケーション用の私の現在のシステムには、古いNVIDIAカードである8800 GTXが1つあります。私はマザーボードを更新せずにカードをもう1枚追加するつもりです。 2つのPCI-Eスロットがある限り、2つのPCI-Eスロットは機能しますか?または、新しいマザーボード対応のSLIサポートを購入する必要がありますか?

    7

    1答えて

    これはかなり簡単な質問ですが、グーグルでは答えがないようです。 私が知りたいことは、2つのgpuカード(同一)がc​​udaを実行できるかどうかです。カーネルはこれらのカードをまたぐことができますか?それとも、1つのカードにバインドされていますか?私。利用可能なgpuコアの全セット、またはそれが実行されているカード上のものだけが表示されます。 もしそうなら、これを実現するために私が知る必要がある特

    4

    1答えて

    私の質問は: 複数のGPUでopenCLを使用するための新しい進歩(またはツール/ライブラリが開発されました)はありますか?誰かが複数のGPUを使用するという目標を持ってopenCLでコードを書こうと思っていたら、彼はできますが、あなたがそれらの間のコミュニケーションを手配できる方法は少し "原始的"であると言われています。私が知りたいのは、プログラマとGPU間のコミュニケーションのすべてのアレン

    1

    1答えて

    私はProfessional CUDA C Programmingを読んでいる、とGPUアーキテクチャの概要セクションで: CUDAは32と呼ばれる縦糸のグループ内のスレッドを管理し、実行するための単一命令複数スレッド(SIMT)アーキテクチャを採用しています。ワープ内のすべてのスレッドは、同じ命令を同時に実行します。各スレッドはそれ自身の命令アドレスカウンタとレジスタ状態を持ち、それ自身のデータ