私はconvNetのtr-60%、test-20%、validate-20%の50k画像データセットを消費しようとしています。 次のようにこれまでのところ、私は、)(プレースホルダを作成し、sess.run @それをfeed_dictingている: -大規模なデータセットをTensorflowセッションに読み込む/ feed_dicting
tf_train_dataset = tf.placeholder(
tf.float32, shape=(batch_size, image_size, image_size, num_channels))
......
...
feed_dict = {tf_train_dataset : batch_data, tf_train_labels : batch_labels}
_, l, predictions = session.run(
[optimizer, loss, train_prediction], feed_dict=feed_dict)
が、次のように公式TFパフォーマンスガイドによると、それは、実装するための貧弱な方法である: - link to TF guide
特殊な状況またはコードの場合を除き、 データをPython変数からセッションに供給しないでください。辞書。
# This will result in poor performance. sess.run(train_step, feed_dict={x: batch_xs, y_: batch_ys})
あなたはTF内のデータを読み取るためのキューを実装するには助けてくださいことはできますか?それが最善の方法であれば、
がストリームファッション
にデータをロードしているオペアンプを作成します。しかし、私は 1)を確認していない - :私が見つけ
一つの方法です 2)私は上記の提案を実装できませんでした。この仮疑似コードを作成することはできますか? ありがとう。