tensorflow-gpu

    1

    3答えて

    CentOS 7でCUDA 8.0およびCUDNN 5.0.5のソースからTensorflow 1.4をインストールしようとしています.CUDNN 3以上で動作することがドキュメントに示されています。私はGaz 4.9でBazel 0.7.0を使って、Python 3.4.5で仮想envで作業しています。設定中、私はCUDNNのバージョンを5.0.5に設定し、ライブラリが見つかりました。 残念なが

    0

    1答えて

    結果アグリゲータとして機能するはずのtf.Variableテンソルがあります。 考えられるのは、データのバッチを含むグラフ上で操作を実行し、その結果を結果の変数に新しい行として追加するということです。冒頭で変数が空でなければなりませんので は、私はこのようにそれを初期化します。 : result_tensor = tf.Variable(0, expected_shape=[0, 5], dtyp

    4

    2答えて

    標準的なテンソルフロー推定機能があり、複数のGPUで1つではなく複数のGPUで実行したいと考えています。データの並列処理を使用してこれをどのように行うことができますか? 私はTensorflow Docsを検索しましたが、例は見つかりませんでした。エスティメーターでは簡単だと言っている文章だけです。 tf.learn.Estimatorを使用して良い例がありますか?チュートリアルなどへのリンクです

    0

    1答えて

    私はTF GPUをインストールしようとしましたが、運が悪かったです。 私はCUDA Toolkit 9.0をインストールし、CuDNN v7.0.3(CUDA 8と9用)とv6.0を試しました。 Traceback (most recent call last): File "/home/gemboly/anaconda3/envs/tensorflow/lib/python3.6/site-p

    4

    1答えて

    virtualenv環境でテンソルフロー(GPU_support、linux 14.04、python3.4)をインストールすると、公式サイトの指示に従って、python;輸入テンソルフロー;しかし、エラーがあります: import tensorflow as tf Traceback (most recent call last): File "/home/fangfang/tensorflow

    0

    1答えて

    gpuのテンソルフローがインストールされました。私のCNNにケラスを使用しています。トレーニング中に私のGPUは約5%しか使われていませんが、6gbのVramのうち5本がトレーニング中に使用されています。コンソールに0.000000e + 00が表示され、gpuが100%になることがありますが、数秒後には、トレーニングが5%に戻ります。私のGPUはZotac gtx 1060 miniで、Ryze

    2

    1答えて

    私はドッキングウィンドウ-コンからこのコンテナを実行できるようにしたいと思い、次のコマンド/ $ sudo docker run --runtime=nvidia --rm gcr.io/tensorflow/tensorflow:latest-gpu ワット、コマンドラインからGPUへのアクセス/ wのtensorflowコンテナを実行することができています。 フラグをdocker-compos

    0

    2答えて

    object_detection/train.pyスクリプトを使用して自分自身の検出器を訓練するTensorflowオブジェクト検出APIを実行しています(here)。問題は私が常にCUDA_ERROR_OUT_OF_MEMORYを得ていることです。 バッチサイズを減らすためのいくつかの提案がありましたので、トレーナーのメモリ消費量は少なくなりましたが、私は16から4に減少しましたが、私はまだ同じ

    0

    1答えて

    tf_learn.Experiment(...)インターフェイスを使用する場合、train_monitorsとeval_hooksを渡すことができます。 ソースコードを読もうとしましたが、セッションごとにフックを実行する必要があることがわかりました(..)。私はマスターだけでなく、労働者もsession.run(...)を実行すると信じています。しかし、クラウドmlのログ結果からは、このフックがマ

    0

    1答えて

    私はtensorflow.contrib.learn.ExperimentでモデルをトレーニングするのにGoogle Cloud MLエンジンを使用しています。デフォルトでは、テンソルフローによってマスターサーバーに評価が実行されているようです。私は訓練が完了した後でのみエバールを実行します(min_eval_frequency = 0)、私のマスターにはコアとRAMが多数ありますがGPUはありま