2017-08-14 11 views
0

私はZynq Socで訓練されたCNNをマッピングするプロジェクトを行っています。私はテンソルフローでレネットを訓練し、重みと偏りを抽出しました。私が見た限りでは、重みの値はすべて0に近く、ほとんどは1より大きくはありません。ただし、lenetの入力データはグレースケール画像で、ピクセル値は0〜255です。畳み込みニューラルネットワーク - すべての特徴マップが黒(ピクセル値は0)

入力画像とカーネル(訓練された重み)の間の2次元畳み込みを試みたが、畳み込み結果はすべて0に近いので、出力特徴マップはすべて黒画像である。さらに、Relu層も考慮する。しかし、以下の図に示すように、カーネルとフィーチャマップの重みの値は、明るさに応じて0〜255の値にする必要があります。

なぜ黒(0ピクセル値)のフィーチャマップが得られたのだろうか?

enter image description here

+0

数字の値が255に近いことを確認してください。明るさが拡大された可能性はありますか? **あなたの**フィルタとレスポンスをプロットし、それらの値を[0..256]にスケールするとどうなりますか? – Shai

答えて

0

入力は、コンボリューションや画像を作成するだけでなく正規化されて作成された特徴マップを行う前に正規化されています。同様の画像を作成するには、使用しているウェイトを作成したネットワークで入力がどのように正規化されているかを調べ、同様に入力を正規化してから、フィーチャマップ上でmin- max正規化を行い、 255の範囲。

関連する問題