いくつかのマニュアがあるので、ニューラルネットワークの教授の良いアルゴリズムを構築するのは難しいです。最初のものが最初に:私の目標は、私は活性化関数と単純なグラデーション降下としてSigmoidを使用しているnnのxor関数を教えることです。フィードフォワードは簡単ですが、バックプロップは何とか混乱します。アルゴリズムのほとんどの記述に共通するステップは次のとおりです。 1.出力レイヤーでエラーを計算します。バイアスも更新し、どのようにイエスならばするべき 1:? 2.シナプスニューラルネットワークの逆伝播とバイアス
上の重み 3.更新重みだから私の質問については、隠れ層にこのエラーの伝播しますか現在私はバイアスをランダムに選択する[0.5; 1]? 2.手順2でウェイトを更新できますか? 3.私は、nnの最初の層がニューロンの入力層であると仮定しています。だから、このレイヤーのどの値を更新する必要がありますか?入力層と最初の隠れ層をつなぐシナプスの重みだけ?