5

トレーニングデータのファイルは約1万行あり、各トレーニングステップでは簡単なtf.train.GradientDescentOptimizerを実行しています。この設定は、基本的にTensorflowのMNISTの例から直接得られます。コードは以下に再現:Tensorflowの理解tf.train.shuffle_batch

x = tf.placeholder(tf.float32, [None, 21]) 
W = tf.Variable(tf.zeros([21, 2])) 
b = tf.Variable(tf.zeros([2])) 
y = tf.nn.softmax(tf.matmul(x, W) + b) 

y_ = tf.placeholder(tf.float32, [None, 2]) 
cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y), reduction_indices=[1])) 
train_step = tf.train.GradientDescentOptimizer(0.5).minimize(cross_entropy) 
、私はCSVファイルから行を読み取るために tf.train.string_input_producertf.decode_csvを使用しています私は、ファイルからのトレーニングデータを読んでいることを考えると

、その後、tf.train.shuffle_batchを、私は、その後の訓練バッチを作成します。

私のパラメータがtf.train.shuffle_batchであるべきであると私は混乱しています。私はTensorflowのドキュメントを読んでいますが、まだ最適なbatch_size、capacity、およびmin_after_dequeueの値が何であるかまだ分かりません。誰も私がこれらのパラメータの適切な値を選択する方法や、私がもっと学ぶことができるリソースに私をリンクさせる方法について、いくつかの洞察を助けることができますか? https://www.tensorflow.org/versions/r0.9/api_docs/python/io_ops.html#shuffle_batch

答えて

2

残念ながら、私はシンプルがあると思いません

https://www.tensorflow.org/versions/r0.9/how_tos/reading_data/index.html#batching

で使用するスレッドの数について少しがあります:Thanks--

はここでAPIのリンクですバッチサイズの答え。 ネットワークの効率的なバッチサイズは、ネットワークに関する多くの詳細 に依存します。実際には、最適なパフォーマンスを気にしている場合は、同じネットワークで使用されている値から を起動して試行錯誤を繰り返す必要があります( )。

関連する問題