0

私は0と1のテーブルに対して畳み込みニューラルネットワークを訓練しようとしています。画像のサイズは7 * 6であり、フィルタの数は15です。データセット私はfit_generator関数でそれを訓練しようとしています。ここでは、コードKeras fit_generatorはすべてのデータを表示しません

model.fit_generator(
generator=data_generator(ml_mode='train'), 
samples_per_epoch=12800,#int(self.num_points['train']['pos'] * 2 * self.configs['training']['train_data_fraction_per_epoch']), 
nb_epoch=100, 
callbacks=None, 
verbose=1, 
validation_data=data_generator(ml_mode='test'), 
nb_val_samples = 1280, 
initial_epoch=0, 
class_weight = my_class_weight 
) 

で、ここで私のdata_generatorの実装です:私はそれを読み込む行数を確認するためにプリントを入れ

model.fit_generator(
generator=data_generator(ml_mode='train'), 
samples_per_epoch=12800,#int(self.num_points['train']['pos'] * 2 * self.configs['training']['train_data_fraction_per_epoch']), 
nb_epoch=100, 
callbacks=None, 
verbose=1, 
validation_data=data_generator(ml_mode='test'), 
nb_val_samples = 1280, 
initial_epoch=0, 
class_weight = my_class_weight 
) 

と私のデータが130Kラインである間、私は25Kのカウントを得ました。誰でも私がここでの潜在的な問題とは何かを理解するのを助けることができますか?

おかげで

答えて

0

私はそれを自分で解決していると私は私が観察しているものを共有するために役に立つかもしれないと思います。

samples_per_epochは、データを形成する前にアルゴリズムが歩留まり続けている回数です。 このパラメータをmy_batch_sizeに、nb_epochをdata_size/batch_sizeに設定して修正しました。

Kerasは最初に10個の例を読み、それから私にはちょっと混乱していた最高の利用可能なコアを見つけようとします。

最高

関連する問題