私は、2入力、2隠し(シグモイド)、1出力(シグモイド)のような、私の単純なニューラルネットワークにバックプロパゲーションを実装しようとしています。しかし、それは適切に動作していないようです。私は私のエラーを印刷するとき import numpy as np
# Set inputs and labels
X = np.array([ [0, 1],
[0, 1],
私は以前に質問しました Matconvnet output of deep network's marix is uniform valued instead of varying values? 密度推定のために深いネットワークをデバッグしていたので、出力に向かって信号が消えていく/消えていくことに気付きました。信号が平坦にならないように信号を補強するにはどうしたらいいですか?ピーク値とベース値
数字Aを出力する隠れ層を持つニューラルネットワークを持っています。問題は、逆伝播を行うときにTFがこれを適切に処理できるかどうかです。私はTFでそれを試して、何かを出力することができますが、私はまだBPが正しく動作するかどうかはわかりません。 ところで、私は数からベクトルを生成するために使用される関数である(d私はフィードの値である、Vが前の層から出力され、Gは一定である): def Genera
これはTensorflow: How to get gradients per instance in a batch?の可能な複製です。私はとにかくそれに満足している答えがなかったので、私はそれを尋ねます、そして、ここの目標は少し異なります。 私は私が私のGPUに収まることができる非常に大きなネットワークを持っていますが、私は養うことができ、最大バッチサイズはそれよりも大きい32何がGPUがメモ