2017-11-18 12 views
0

私はtensorflowのウェブサイト上で与えられたテストコードを使用してアナコンダにGPUとtensorflowをテストしています:Tensorflow-GPUのエラー:InvalidArgumentError:操作するためのデバイスを割り当てることができません「MATMUL」

import tensorflow as tf 
with tf.device('/device:GPU:0'): 
    a = tf.constant([1,2,3,4,5,6],shape=[2,3],name='a') 
    b = tf.constant([1,2,3,4,5,6],shape=[3,2],name='b') 
    c = tf.matmul(a,b) 
sess = tf.Session(config=tf.ConfigProto(log_device_placement=True)) 
print(sess.run(c)) 

私はアナコンダ環境を作成し、 pip install tensorflow-gpuを使用してテンソルフロー+ gpuをインストールしました。 Ipythonノートは、上記のコードを実行し、エラーを取得し維持するために使用された:

InvalidArgumentError: Cannot assign a device for operation 'MatMul': Could not satisfy explicit device specification '/device:GPU:0' because no supported kernel for GPU devices is available. 
    [[Node: MatMul = MatMul[T=DT_INT32, transpose_a=false, transpose_b=false, _device="/device:GPU:0"](a, b)]] 

MatMulオペレータはGPUにロードすることができないようです。私は、なぜcudaとcudNNが適切にインストールされているので、GPUデバイス用にサポートされているカーネルがないのか分かりません。それ以外の場合は、tensorflowメッセージは、GPUが認識されている例を示します

name: GeForce GTX 1080 Ti 
major: 6 minor: 1 memoryClockRate (GHz) 1.683 
pciBusID 0000:02:00.0 
Total memory: 10.91GiB 
Free memory: 10.75GiB 
2017-11-17 19:12:50.212054: W tensorflow/stream_executor/cuda/cuda_driver.cc:523] A non-primary context 0x55a56f0c2420 exists before initializing the StreamExecutor. We haven't verified StreamExecutor works with that. 
2017-11-17 19:12:50.213035: I tensorflow/core/common_runtime/gpu/gpu_device.cc:955] Found device 1 with properties: 
name: GeForce GTX 1080 Ti 
major: 6 minor: 1 memoryClockRate (GHz) 1.683 
pciBusID 0000:82:00.0 
Total memory: 10.91GiB 
Free memory: 10.75GiB 
2017-11-17 19:12:50.213089: I tensorflow/core/common_runtime/gpu/gpu_device.cc:847] Peer access not supported between device ordinals 0 and 1 
2017-11-17 19:12:50.213108: I tensorflow/core/common_runtime/gpu/gpu_device.cc:847] Peer access not supported between device ordinals 1 and 0 
2017-11-17 19:12:50.213132: I tensorflow/core/common_runtime/gpu/gpu_device.cc:976] DMA: 0 1 
2017-11-17 19:12:50.213148: I tensorflow/core/common_runtime/gpu/gpu_device.cc:986] 0: Y N 
2017-11-17 19:12:50.213156: I tensorflow/core/common_runtime/gpu/gpu_device.cc:986] 1: N Y 
2017-11-17 19:12:50.213169: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1045] Creating TensorFlow device (/gpu:0) -> (device: 0, name: GeForce GTX 1080 Ti, pci bus id: 0000:02:00.0) 
2017-11-17 19:12:50.213179: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1045] Creating TensorFlow device (/gpu:1) -> (device: 1, name: GeForce GTX 1080 Ti, pci bus id: 0000:82:00.0) 
Device mapping: 
/job:localhost/replica:0/task:0/gpu:0 -> device: 0, name: GeForce GTX 1080 Ti, pci bus id: 0000:02:00.0 
/job:localhost/replica:0/task:0/gpu:1 -> device: 1, name: GeForce GTX 1080 Ti, pci bus id: 0000:82:00.0 
2017-11-17 19:12:50.471348: I tensorflow/core/common_runtime/direct_session.cc:300] Device mapping: 
/job:localhost/replica:0/task:0/gpu:0 -> device: 0, name: GeForce GTX 1080 Ti, pci bus id: 0000:02:00.0 
/job:localhost/replica:0/task:0/gpu:1 -> device: 1, name: GeForce GTX 1080 Ti, pci bus id: 0000:82:00.0 

は2つのGPUがあり、それらの両方が同じ問題に遭遇しました。 cudaとcudnnライブラリが正しくインストールされ、環境変数がanacondaに設定されています。 cudaサンプル(deviceQuery)コードはエラーなしでコンパイルして実行することができ、result = passを表示します。そうしないと、MatmulがCPUにロードされ、計算が終了する可能性があります。プログラム内の変数abは、GPUデバイスにロードすることができます。テンソルフローメッセージが表示されました:

2017-11-17 20:27:25.965655: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1045] Creating TensorFlow device (/gpu:0) -> (device: 0, name: GeForce GTX 1080 Ti, pci bus id: 0000:02:00.0) 
2017-11-17 20:27:25.965665: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1045] Creating TensorFlow device (/gpu:1) -> (device: 1, name: GeForce GTX 1080 Ti, pci bus id: 0000:82:00.0) 
Device mapping: 
/job:localhost/replica:0/task:0/gpu:0 -> device: 0, name: GeForce GTX 1080 Ti, pci bus id: 0000:02:00.0 
/job:localhost/replica:0/task:0/gpu:1 -> device: 1, name: GeForce GTX 1080 Ti, pci bus id: 0000:82:00.0 
2017-11-17 20:27:26.228395: I tensorflow/core/common_runtime/direct_session.cc:300] Device mapping: 
/job:localhost/replica:0/task:0/gpu:0 -> device: 0, name: GeForce GTX 1080 Ti, pci bus id: 0000:02:00.0 
/job:localhost/replica:0/task:0/gpu:1 -> device: 1, name: GeForce GTX 1080 Ti, pci bus id: 0000:82:00.0 

MatMul: (MatMul): /job:localhost/replica:0/task:0/cpu:0 
2017-11-17 20:27:26.229489: I tensorflow/core/common_runtime/simple_placer.cc:872] MatMul: (MatMul)/job:localhost/replica:0/task:0/cpu:0 
b: (Const): /job:localhost/replica:0/task:0/gpu:0 
2017-11-17 20:27:26.229512: I tensorflow/core/common_runtime/simple_placer.cc:872] b: (Const)/job:localhost/replica:0/task:0/gpu:0 
a: (Const): /job:localhost/replica:0/task:0/gpu:0 
2017-11-17 20:27:26.229526: I tensorflow/core/common_runtime/simple_placer.cc:872] a: (Const)/job:localhost/replica:0/task:0/gpu:0 

nvidiaドライバ、cuda、およびanacondaを何度も再インストールしましたが、この問題は解決しませんでした。何か提案があれば素晴らしいだろう。

  • OSプラットフォームと配布:からインストールされているLinuxのUbuntu 16.04
  • TensorFlow:バイナリ
  • TensorFlowバージョン:1.3
  • Pythonバージョン:2.7.14
  • GCC /コンパイラのバージョン(ソースからコンパイルする場合):5.4.0
  • NVIDIAドライバ:384.98
  • CUDA/cuDNNバージョン:8.0/cuDNN 6.0
  • GPUモデルとメモリ CUDA:Geforceの1080Ti

答えて

0

あなたがしていますGPUでtf.int32DT_INT32)のデータ型を持つ複数のテンソルにしようとすると、エラーメッセージは、DT_INT32テンソルをGPUに乗じることについてのサポートがないということです。ウェブサイト上のコードでは、フロートテンソルを使用していること

注(tf.float32

の変更(あなたがhttps://www.tensorflow.org/tutorials/using_gpuでコードの話をしていると仮定した場合):

a = tf.constant([1,2,3,4,5,6],shape=[2,3],name='a') 

へ:

a = tf.constant([1.,2.,3.,4.,5.,6.],shape=[2,3],name='a') 

または:

a = tf.constant([1,2,3,4,5,6],shape=[2,3],name='a',dtype=tf.float32) 

同様にbには、GPU上のfloat32テンソルの行列乗算をサポートするカーネルがあるので、エラーをなくす必要があります。

希望に役立ちます。

+0

大きな説明。すでに解決済みです、ありがとうございます! – Xinzhou

関連する問題