0
とCNNに特別な層を作成します。このレイヤーはどのように作成できますか?は、私は次のようなアーキテクチャを備えたCNNを有するkeras
とCNNに特別な層を作成します。このレイヤーはどのように作成できますか?は、私は次のようなアーキテクチャを備えたCNNを有するkeras
私はあなたが実装するアーキテクチャの一部にこれを想像:
| RELU | -- > | RELU | --> | RELU | --> | RELU |
| | | |
| | | |
----------------> | RELU | <-----------------
は、あなたは、いくつかの前の層からの(32、32)テンソルを持っていると仮定しましょう。 機能的APIを使用しています。
# no non-linearity in the Dense layers
# so you can apply it in the next node in the graph.
d1 = Dense(32, 32, activation='linear'))(previous-layer)
r1 = LeakyReLU((32,)))(d1)
d2 = Dense(32, 32, activation='linear'))(r1)
r2 = LeakyReLU((32,)))(d2)
d3 = Dense(32, 32, activation='linear'))(r2)
r3 = LeakyReLU((32,)))(d3)
d4 = Dense(32, 32, activation='linear'))(r3)
r4 = LeakyReLU((32,)))(r4)
あなたは列が keras.layers.concatenate()
concat = concatenate([r1, r2, r3, r4])
d5 = Dense((32, 32), activation="linear")(concat)
r5 = SReLu((32,))(d5)
何をしようと間違ってません使用沿っ層を連結したい代わり場合は、あなたが本当にその後、keras.layers.add()
が
adder = add([r1, r2, r3, r4])
d5 = Dense((32, 32), activation="linear")(adder)
r5 = SReLu((32,))(d5)
を行うだろうテンソルを追加したいと仮定すると、どちらがあなたの問題に適しているかを見ています。
あなたが探しているフレームワークです。 Caffe、Keras、Theanoなど –
ケラス、上記のタイトルに記載されているように –
私はその質問になぜ尋ねられたのですか? –