2017-12-02 6 views
0

私はGPU-Nvidia 1060 3Gbを使用して訓練されたモデルでYOLO検出を使用しました。YOLO-tensorflowはCPU上で動作しますが、GPUでは動作しません

今、param --gpu 1.0で自分のモデルを生成しようとしています。私が読んで、それらが通信を開始することができますようTensorflowは、私のGPUを見ることができます: "名:のGeForce GTXを1060年の主要:6マイナー:1 memoryClockRate(ギガヘルツ):1.6705" "totalMemory:3.00GiB freeMemory:2.43GiB"

プログラムのデータをロードするには、と私はエラー以下しまった学習を開始しようとしているときとにかく、後で、:それは使用しようとする場合、私はチェックしました

: 「CUDA_ERROR_OUT_OF_MEMORYデバイスから832.51M(872952320バイト)を割り当てることができませんでした」私の他のGPU(インテル630)、しかしそれはしません。

"--gpu"モードオプションを使用しない電車のプロセスを実行すると、うまく動作しますが、ゆっくりと動作します。 (私も - gpu 0.8、0.4 ectを試しました)

どのようにそれを修正するか考えていますか?

答えて

0

問題を解決しました。設定ファイル内のバッチサイズとイメージサイズを変更しても、正しく読み込まれなかったので役に立たないようです。私はdefaults.pyファイルに移動して、そこに変更して、GPUがステップを計算できるようにしました。

関連する問題