-1

このgithubのリンクに基づいて、https://github.com/dennybritz/cnn-text-classification-tfに、私のデータセットをGPUのUbuntu-16.04で分類したいと思います。 GPU上で実行されているため、私はこれにtext_cnn.pyにライン23を変更してきた:tf.deviceで( '/GPU:0')、tf.name_scope( "埋め込む"):実行中のテキスト分類 - GPNのCNN

鉄道相のための私の最初のデータセット9000の文書を持っており、それの大きさは約120M秒1の列車のためには、1300の文書を持っているし、それの大きさはおよそ1Mです。

私のTitan XサーバーでGPUを実行した後、エラーが発生しました。 img-3

img

私を導いてください、どのように私はこの問題を解決することができますか?おかげさまで

答えて

0

メモリ不足エラーが発生しているので、最初に試してみると、バッチサイズが小さい( )(デフォルトは64)。メモリのほとんどは埋め込みパラメータと畳み込みパラメータを保持するために使用され

./train.py --batch_size 32

+0

私は--batch_size 32 - ./traint.pyを試してみましたが、100ステップで作業していましたが、その後エラーが発生して終了しました。 – brelian

0

:私は開始します。私は減らすことをお勧め:

  • EMBEDDING_DIM
  • NUM_FILTERS
  • BATCH_SIZE

は、それが動作するかどうか、彼らは一度に2倍増加し、embedding_dim = 16、BATCH_SIZE = 16とnum_filters = 32を試してみてください。

テンソルフローを実行するためにdocker仮想マシンを使用している場合、マシンに16Gのメモリがあるにもかかわらず、デフォルトで1Gのメモリしか使用できない場合があります。詳細はhereを参照してください。

関連する問題