2016-11-09 5 views
0

this questionで説明したように、GTX 1080カードとnvidia-dockerで「最初に実行されるスローダウン」問題が発生しました。TensorFlowで利用可能なすべてのカーネルのCUDA JITキャッシュをプログラムで構築する方法は?

私はits official pip packageのTensorFlowビルドと、nvidia-dockerのUbuntu 16.04ベースイメージに基づくカスタムドッカーイメージを使用しています。

Dockerfileに登録されたすべてのCUDAカーネルをプログラムでロード(およびJITキャッシュを構築)するにはどうすればよいですか?

+0

これはかなり面白いです。私たちの[github](https://www.github.com/tensorflow/tensorflow/issues)ページに投稿できますか?さらなる指示やコードのいずれかでそれを緩和するためにできることがあれば、それは良いでしょう。 – drpng

答えて

1

を(手動TF_CUDA_COMPUTE_CAPABILITIES環境変数を使用してTensorFlowを構築するのではなく)暗黙的にCUDAランタイムので、これを達成する簡単な方法はないように思える、怠惰与えられたカーネルソースas discussed hereから欠落CUBINをコンパイルします。

現在のCUDA/GPU設定を検出し、必要なTensorFlow設定パラメータ(detect-cuda.py,build-tensorflow.sh)を生成するヘルパースクリプトを使用して、TensorFlowを自分で再構築することで、この問題を解決しました。

関連する問題