1
私は、特定のモデルの推論のためのTFアプリケーションを実行しています。 しかし、テンソルフローライブラリはCUDAが有効な状態で構築されていますが、GPUではなくCPU上で動作しています。テンソルフローモデル(.pb)はtf.device(/ cpu:0)やtf.device(/ gpu:0)のようなデバイス情報を持っていますか?Tensorflowモデル(.pb)にはデバイス情報がありますか?
私は、特定のモデルの推論のためのTFアプリケーションを実行しています。 しかし、テンソルフローライブラリはCUDAが有効な状態で構築されていますが、GPUではなくCPU上で動作しています。テンソルフローモデル(.pb)はtf.device(/ cpu:0)やtf.device(/ gpu:0)のようなデバイス情報を持っていますか?Tensorflowモデル(.pb)にはデバイス情報がありますか?
docs(強調鉱山)から:
時々、エクスポートされたメタグラフは、輸入者が持っていないことをトレーニング環境からです。たとえば、モデルがGPUやレプリカを含む分散環境でトレーニングされている可能性があります。このようなモデルをインポートするときは、ローカルで使用可能なデバイス上で実行できるように、グラフ内のデバイス設定をクリアすると便利です。
clear_devices option
をTrue
に設定してimport_meta_graph
と呼ぶことでこれを達成できます。with tf.Session() as sess: new_saver = tf.train.import_meta_graph('my-save-dir/my-model-10000.meta', clear_devices=True) new_saver.restore(sess, 'my-save-dir/my-model-10000')