2017-09-15 16 views
2

私のKerasモデルは何も学習していません。理由を理解できません。私は訓練セットのサイズを5つの要素に減らしましたが、モデルはまだ訓練データに適合していません。ここでKerasモデルは学習していません

loss function visualized with TensorBoard

私のコードです:

model = Sequential() 
model.add(Conv1D(30, filter_length=3, activation='relu', input_shape=(50, 1))) 
model.add(Conv1D(40, filter_length=(3), activation='relu')) 
model.add(Conv1D(120, filter_length=(3), activation='relu')) 
model.add(Flatten()) 
model.add(Dense(1024, activation='relu')) 
model.add(Dense(256, activation='relu')) 
model.add(Dense(32, activation='relu')) 
model.add(Dense(1, activation='relu')) 
model.summary() 
model.compile(loss='mse', 
       optimizer=keras.optimizers.adam()) 


train_limit = 5 
batch_size = 4096 
tb = keras.callbacks.TensorBoard(log_dir='./logs/' + run_name + '/', 
    histogram_freq=0, write_images=False) 
tb.set_model(model) 
model.fit(X_train[:train_limit], y_train[:train_limit], 
      batch_size=batch_size, 
      nb_epoch=10**4, 
      verbose=0, 
      validation_data=(X_val[:train_limit], y_val[:train_limit]), 
      callbacks=[tb]) 
score = model.evaluate(X_test, y_test, verbose=0) 
print('Test loss:', score) 
print('Test accuracy:', score) 

すべてのヘルプは大歓迎です!

答えて

6

これは回帰の問題のようです。私が気づいたことの一つは、あなたの最後の層には依然としてReLU活性化機能があることです。私は最後の層でReLUを出すことをお勧めします。

関連する問題