私のデータセットは5〜180秒のオーディオセグメントで構成されています。例の数は、ディスクから何度も何度も読み込むのではなく、メモリにキャッシュするのに十分小さいものです。定数テンソル/変数にデータを格納し、tf.train.slice_input_producer
を使用すると、データセットをメモリにキャッシュできますが、すべてのデータを1つのマトリックスに格納する必要があります。いくつかの例は他よりもはるかに長いので、この行列は不必要に大きく、おそらくRAMにとって大きすぎるかもしれません。可変長の例によるデータセットのキャッシュ
私は単純に私のデータのためにnumpy配列のリストを持つことができ、feed_dict
で非テンフォローフローの方法で入力全体を読み込みランダム化処理することができますが、完全に行わない方法があるかと思います入力読み込み - ランダム化 - 前処理部のテンソルフローをあきらめます。
ありがとうございます!
'queue.dequeue_many(length_of_audio) 'の使用についてはどうですか? –
どういう意味ですか? – cruvadom
行列の代わりにキューにあなたの例をロードしてから、 'queue.dequeue_many'を使ってそれらをさまざまな長さのテンソルにロードしてください。 –