2017-03-19 2 views

答えて

0

私はあなたが実装するアーキテクチャの一部にこれを想像:

| RELU | -- > | RELU | --> | RELU | --> | RELU | 
    |    |    |    |   
    |    |    |    |  
    ----------------> | RELU | <-----------------     

は、あなたは、いくつかの前の層からの(32、32)テンソルを持っていると仮定しましょう。 機能的APIを使用しています。

# no non-linearity in the Dense layers 
# so you can apply it in the next node in the graph. 
d1 = Dense(32, 32, activation='linear'))(previous-layer) 
r1 = LeakyReLU((32,)))(d1) 
d2 = Dense(32, 32, activation='linear'))(r1) 
r2 = LeakyReLU((32,)))(d2) 
d3 = Dense(32, 32, activation='linear'))(r2) 
r3 = LeakyReLU((32,)))(d3) 
d4 = Dense(32, 32, activation='linear'))(r3) 
r4 = LeakyReLU((32,)))(r4) 

あなたは列が keras.layers.concatenate()

concat = concatenate([r1, r2, r3, r4]) 
d5 = Dense((32, 32), activation="linear")(concat) 
r5 = SReLu((32,))(d5) 

何をしようと間違ってません使用沿っ層を連結したい代わり場合は、あなたが本当にその後、keras.layers.add()

adder = add([r1, r2, r3, r4]) 
d5 = Dense((32, 32), activation="linear")(adder) 
r5 = SReLu((32,))(d5) 

を行うだろうテンソルを追加したいと仮定すると、どちらがあなたの問題に適しているかを見ています。

関連する問題