私は、畳み込みニューラルネットワークモデルに入力したい画像のデータセットを持っていますが、これらの各画像には、その画像に関連するオブジェクトからの距離または距離があります。畳み込みニューラルネットワーク入力に追加値を追加する?
CNNモデルの追加のコンテキストとしてこの範囲を入力します。
この追加情報を提供することは何らかの利益をもたらすものですか?それは意味をなさないでしょうか?ケラスでそれは実現可能ですか?
ありがとうございます!
私は、畳み込みニューラルネットワークモデルに入力したい画像のデータセットを持っていますが、これらの各画像には、その画像に関連するオブジェクトからの距離または距離があります。畳み込みニューラルネットワーク入力に追加値を追加する?
CNNモデルの追加のコンテキストとしてこの範囲を入力します。
この追加情報を提供することは何らかの利益をもたらすものですか?それは意味をなさないでしょうか?ケラスでそれは実現可能ですか?
ありがとうございます!
ここではいくつかの選択肢がありますが、数値入力をフィーチャープレーンとしてエンコードすることです。数値がc
の場合、すべてのピクセルで値がc
の各入力イメージにチャネルを追加できます。
別の方法として、値を完全に接続されたレイヤーの追加入力としてマージすることもできます。 kerasで
これは次のようになります:あなたが選択したオプション
conv = Sequential()
conv.add(Conv2D(32, kernel_size=(3, 3), strides=(1, 1),
activation='relu',
input_shape=input_shape))
conv.add(MaxPooling2D(pool_size=(2, 2)))
conv.add(Flatten())
conv.add(Dense(512, activation='relu'))
range = Sequential()
range.add(Dense(1, input_shape=(1,), activation='relu'))
merged = Concatenate([conv, range])
merged.add(Dense(n_classes, activation='softmax'))
merged.compile(optimizer='adam', loss='binary_crossentropy',
metrics=['accuracy'])
あなたのデータに、あなたは、数値機能は、畳み込み層は、より良い入力を理解する助けになると思う、またはあなたはそれがだと思うかどうかによって異なります後になるまで必要ありません。時間があれば、両方のアーキテクチャーを試してみて、どちらが良いかを見てみることができます。
あなたの質問は、残念ながら広すぎるとマークされています。どのタイプの出力を予測し、数行のKerasコードを追加して現在のネットワークアーキテクチャがどのようなものかを説明する編集をお勧めします。これは質問をより具体的にするはずです。 – Imran