私はZynq Socで訓練されたCNNをマッピングするプロジェクトを行っています。私はテンソルフローでレネットを訓練し、重みと偏りを抽出しました。私が見た限りでは、重みの値はすべて0に近く、ほとんどは1より大きくはありません。ただし、lenetの入力データはグレースケール画像で、ピクセル値は0〜255です。畳み込みニューラルネットワーク - すべての特徴マップが黒(ピクセル値は0)
入力画像とカーネル(訓練された重み)の間の2次元畳み込みを試みたが、畳み込み結果はすべて0に近いので、出力特徴マップはすべて黒画像である。さらに、Relu層も考慮する。しかし、以下の図に示すように、カーネルとフィーチャマップの重みの値は、明るさに応じて0〜255の値にする必要があります。
なぜ黒(0ピクセル値)のフィーチャマップが得られたのだろうか?
数字の値が255に近いことを確認してください。明るさが拡大された可能性はありますか? **あなたの**フィルタとレスポンスをプロットし、それらの値を[0..256]にスケールするとどうなりますか? – Shai