GRUネットワークに使用するトレーニングデータは6.5GBあります。ラップトップコンピュータを使用しているので、トレーニング時間を分割する、つまりトレーニングを一時停止して再開します。私は6.5 GB全体を使って神経網を訓練するのに数日かかるだろうと仮定しているので、私は訓練を休止してからもう一度再開します。トレーニングニューラルネットワークのデータのバッチをシャッフルする
ここに私の質問です。トレーニングデータのバッチをシャッフルする場合、ニューラルネットはトレーニング用に既に使用されているデータを覚えていますか?
global_step
のパラメータはtf.train.Saver().save
です。
ありがとうございます!
ありがとうございます。 Btw、私は画像を分類するためにCNNではなく、シーケンスを分類するためにリカレントニューラルネットを訓練するつもりです。それはまた適用される、正しい? –
rnnについてはわかりませんが、データに何らかのシーケンスが含まれていれば、間違いなくそのシャフリングは何の問題もないと思います。https://stats.stackexchange.com/questions/40638/predicting-time-seriesデータがセットされるべきであるnns-with-the-shuffled – Eliethesaiyan