Kerasの2D畳み込みレイヤーなどのフィルターのウェイトが、デフォルトで空間ディメンションに沿って共有されているかどうかを知りたいと思います。はいの場合は、ウェイトを共有しない方法はありますか?Kerasの畳み込みレイヤーのウェイト
0
A
答えて
1
私は何をあなたの提示に明確ではないんだけど:単一の畳み込み層で
重みが共有されています。つまり、フィルタは各ストライドと同じ重みを共有します。
ただし、重みがからの間では、2つの畳み込み層はデフォルトではケラでは共有されません。
convレイヤ内のフィルタに共有される部分はありません。 C++ライブラリにオフロードされた場合のコンボリューションの実行以降。
は、具体的には、さらなる参照のために本answer参照:
tf.nn.conv2dの実装()を使用して 最適化されたコードを呼び出すC++で記述されているいずれかの固有(CPU上で)またはcuDNNライブラリ( GPU)ここで実装を見つけることができます。
+0
ありがとう。単一のコンバージョンで、各フィルタまたはフィルタのセットごとに異なる重みを持たせることは可能ですか?ケラスの層?画像の異なる場所で異なる特徴を学習したいとします。 –
2
私が見つけたのはLocallyConnected2D
でした。
LocallyConnected2D
層はConv2D
層と同様に動作するが、重みが非共有であることを除いて、即ち、フィルタの異なるセットは、入力のそれぞれ異なるパッチで適用されます。
関連する問題
- 1. kerasモデルの畳み込みレイヤーの可視化
- 2. Keras(Theano)の畳み込みレイヤーでカーネルサイズが均一な埋め込み
- 3. Keras畳み込みレイヤーはカラーチャンネルで何をしますか?
- 4. 稠密レイヤーを畳み込みレイヤーに変換する方法をPython keras
- 5. 畳み込みニューラルネットワークのレイヤーを特定
- 6. Tensorflowの畳み込みオートエンコーダーの共有ウェイト
- 7. keras:畳み込み層の重みをブロックする方法は
- 8. 可変長シーケンスと畳み込みレイヤーとLSTMレイヤーの組み合わせ
- 9. 1D kerasの畳み込みネットワーク、入力サイズの誤差
- 10. 3チャンネル画像の畳み込みレイヤーの逆方向パス
- 11. Keras畳み込みレイヤ出力の可視化
- 12. Keras畳み込みネットワークを使用したメモリの問題
- 13. 畳み込みネットワーク:完全に接続されたレイヤーのドロップアウト
- 14. ケラスのpythonを使用して出力畳み込みレイヤー
- 15. TensorFlowサポートの畳み込みレイヤーがドロップアウトしますか?
- 16. 畳み込みレイヤーと密なレイヤーの間に新しい情報を追加
- 17. Keras - CNNの畳み込み部分を2つの別々の完全接続レイヤーと共有する方法
- 18. Tensorflow畳み込みとnumpy畳み込みの違い
- 19. 単一機能行に沿ったKeras畳み込み
- 20. Keras畳み込みオートエンコーダは、私はちょうどここKerasの著者からの畳み込みオートエンコーダをテストしてい
- 21. 畳み込みニューラルネットワークモデルアーキテクチャ
- 22. ゴーランの畳み込み
- 23. 畳み込みネットのケラスパラメータ
- 24. アンパッドカーネルの畳み込み
- 25. データキューブのガウス畳み込み
- 26. 畳み込み層のテンソルフローサイズ
- 27. ウェイトなしで畳み込み接続を実装する方法は?
- 28. 空間畳み込み対周波数畳み込み画像の逆フィルタ
- 29. 畳み込みネットワークの重み?
- 30. Kerasの畳み込みニューラルネットにクロッピング/トリミングレイヤーを実装していますか?
何の間で共有されますか?どういう意味?それは畳み込みです...異なるフィルタは異なる重みを持ち、それぞれの行列乗算で同じ重みを保ちます。 –